JP2022056109A - Information processing device, information processing method, information processing program, and information processing system - Google Patents

Information processing device, information processing method, information processing program, and information processing system Download PDF

Info

Publication number
JP2022056109A
JP2022056109A JP2020163922A JP2020163922A JP2022056109A JP 2022056109 A JP2022056109 A JP 2022056109A JP 2020163922 A JP2020163922 A JP 2020163922A JP 2020163922 A JP2020163922 A JP 2020163922A JP 2022056109 A JP2022056109 A JP 2022056109A
Authority
JP
Japan
Prior art keywords
listener
information
information processing
terminal device
transmitter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020163922A
Other languages
Japanese (ja)
Other versions
JP7152454B2 (en
Inventor
孝裕 森田
Takahiro Morita
亮 張
Liang Zhang
英毅 表
Hideki Omote
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2020163922A priority Critical patent/JP7152454B2/en
Publication of JP2022056109A publication Critical patent/JP2022056109A/en
Application granted granted Critical
Publication of JP7152454B2 publication Critical patent/JP7152454B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide an information processing device capable of supporting transfer of complicated operation contents in remote communication, an information processing method, an information processing program, and an information processing system.SOLUTION: An information processing device 100 comprises a generation unit 133 which generates auxiliary information transferred from a providing user, who is a participant into remote communication, to a listener, who is also a participant into remote communication, and for complementing operation contents to an operation object operated by the listener on the basis of information of the listener, and an output control unit 134 which outputs the auxiliary information generated by the generation unit 133 so that the auxiliary information is output to a terminal device of the listener.SELECTED DRAWING: Figure 4

Description

本発明は、情報処理装置、情報処理方法、情報処理プログラム及び情報処理システムに関する。 The present invention relates to an information processing apparatus, an information processing method, an information processing program and an information processing system.

近年、遠隔コミュニケーションに関する技術の開発がますます盛んになっている。遠隔コミュニケーションでは、遠隔地にいる相手の映像や音声などを相互に通信することでコミュニケーションを図る。 In recent years, the development of technology related to remote communication has become more and more active. In remote communication, communication is achieved by communicating the video and audio of the other party in a remote location with each other.

特開2019-61594号公報Japanese Unexamined Patent Publication No. 2019-61594

しかしながら、上記の従来技術では、対面によるコミュニケーションと比べると、伝え手から聞き手に対して複雑な操作内容を正確に伝達することが困難な場合がある。遠隔コミュニケーションにおける複雑な操作内容の伝達を支援可能にする技術が求められている。 However, in the above-mentioned conventional technique, it may be difficult to accurately convey a complicated operation content from a transmitter to a listener as compared with face-to-face communication. There is a need for technology that can support the transmission of complex operation details in remote communication.

実施形態に係る情報処理装置は、遠隔コミュニケーションの参加者である聞き手の情報に基づいて、前記遠隔コミュニケーションの参加者である伝え手から前記聞き手に対して伝達される操作内容であって、前記聞き手が操作する操作対象に対する操作内容を補う補助情報を生成する生成部と、前記生成部によって生成された前記補助情報を前記聞き手の端末装置に出力するよう制御する出力制御部と、を備える。 The information processing apparatus according to the embodiment is an operation content transmitted from a transmitter who is a participant of the remote communication to the listener based on information of a listener who is a participant of the remote communication, and is the operation content of the listener. It includes a generation unit that generates auxiliary information that supplements the operation content for the operation target operated by the user, and an output control unit that controls the auxiliary information generated by the generation unit to be output to the terminal device of the listener.

図1は、比較例に係る情報処理の一例を示す図である。FIG. 1 is a diagram showing an example of information processing according to a comparative example. 図2は、実施形態に係る情報処理の一例を示す図である。FIG. 2 is a diagram showing an example of information processing according to an embodiment. 図3は、実施形態に係る情報処理システムの構成例を示す図である。FIG. 3 is a diagram showing a configuration example of an information processing system according to an embodiment. 図4は、実施形態に係る情報処理装置の構成例を示す図である。FIG. 4 is a diagram showing a configuration example of the information processing apparatus according to the embodiment. 図5は、実施形態に係る参加者情報記憶部の一例を示す図である。FIG. 5 is a diagram showing an example of a participant information storage unit according to an embodiment. 図6は、第1の変形例に係る情報処理の一例を示す図である。FIG. 6 is a diagram showing an example of information processing according to the first modification. 図7は、第2の変形例に係る情報処理の一例を示す図である。FIG. 7 is a diagram showing an example of information processing according to the second modification. 図8は、第3の変形例に係る情報処理の一例を示す図である。FIG. 8 is a diagram showing an example of information processing according to the third modification. 図9は、第4の変形例に係る情報処理の一例を示す図である。FIG. 9 is a diagram showing an example of information processing according to the fourth modification. 図10は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 10 is a hardware configuration diagram showing an example of a computer that realizes the functions of the information processing device.

以下に、本願に係る情報処理装置、情報処理方法、情報処理プログラム及び情報処理システムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、情報処理プログラム及び情報処理システムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, an embodiment for implementing an information processing apparatus, an information processing method, an information processing program, and an information processing system according to the present application (hereinafter, referred to as “embodiment”) will be described in detail with reference to the drawings. Note that this embodiment does not limit the information processing apparatus, information processing method, information processing program, and information processing system according to the present application. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate description is omitted.

(実施形態)
〔1.はじめに〕
近年、新型コロナウイルス感染症対策等により、テレワークを導入する企業が増加している。また、テレワーク導入に伴い、ビデオ会議やWeb会議といった遠隔コミュニケーションを利用する機会がますます増加している。例えば、遠隔コミュニケーションを利用して、伝え手から聞き手に対して、聞き手が操作する操作対象に対する操作内容を伝達する機会も増加している。
(Embodiment)
[1. Introduction]
In recent years, an increasing number of companies have introduced telework as a countermeasure against new coronavirus infectious diseases. In addition, with the introduction of telework, opportunities to use remote communication such as video conferences and web conferences are increasing more and more. For example, there is an increasing opportunity to convey the operation content of the operation target operated by the listener from the transmitter to the listener by using remote communication.

一般的に、遠隔コミュニケーションにおける操作内容の伝達は、対面での操作内容の伝達と比べると、複雑な操作内容を伝達することが難しいと言われている。例えば、遠隔コミュニケーションで操作内容を伝達する場合、伝え手は実際の操作対象が手元にない状態で聞き手に対して操作対象に対する操作内容を伝える必要があるため、複雑な操作内容を伝達することが難しい場合がある。また、聞き手は伝え手から伝達される操作内容を言語情報のみで理解する必要があるため、複雑な操作内容を理解することが難しい場合がある。 In general, it is said that it is more difficult to convey complicated operation contents in remote communication than in face-to-face communication. For example, when communicating the operation content by remote communication, the transmitter needs to convey the operation content to the listener to the listener without the actual operation target at hand, so it is possible to convey complicated operation content. It can be difficult. In addition, since the listener needs to understand the operation content transmitted from the transmitter only with linguistic information, it may be difficult to understand the complicated operation content.

そこで近年、遠隔コミュニケーションでの複雑な操作内容の伝達を助けるための技術が開発されている。例えば、遠隔地にいる伝え手の3次元ホログラフィックを現場の聞き手に提供することで、ミス軽減や伝達速度の向上に繋げる技術が知られている(参考URL:https://dynamics.microsoft.com/en-us/mixed-reality/overview/)。しかしながら、複雑な操作内容を伝達するにあたり、視覚情報、聴覚情報、触覚情報が豊富な対面での伝達に匹敵または対抗できるオンライン環境を提供するには、改善の余地がある。具体的には、遠隔コミュニケーションにおいて、より使い勝手がよく、かつ、様々なケースを吸収できる仕組みが必要である。例えば、聞き手の属性に応じて伝達内容を最適化する仕組み、聞き手の意思に応じた伝達内容をリアルタイムで提供する仕組み、聞き手が所在する現場の状況に応じたタイミングで伝達内容を提供する仕組み、そして精密な操作内容を提供する仕組みなどが望まれている。 Therefore, in recent years, a technique for assisting the transmission of complicated operation contents in remote communication has been developed. For example, there is a known technology that can reduce mistakes and improve transmission speed by providing 3D holographic images of transmitters in remote areas to listeners in the field (reference URL: https://dynamics.microsoft. com / en-us / mixed-reality / overview /). However, there is room for improvement in providing an online environment that is comparable to or can compete with face-to-face transmission, which is rich in visual information, auditory information, and tactile information in transmitting complicated operation contents. Specifically, in remote communication, there is a need for a mechanism that is easier to use and can absorb various cases. For example, a mechanism that optimizes the transmission content according to the attributes of the listener, a mechanism that provides the transmission content according to the listener's intention in real time, a mechanism that provides the transmission content at the timing according to the situation of the site where the listener is located, And a mechanism to provide precise operation contents is desired.

ここで、図1を用いて、比較例に係る情報処理の一例について説明する。図1は、比較例に係る情報処理の一例を示す図である。図1では、遠隔コミュニケーションを用いて、伝え手である参加者U11(以下、「伝え手U11」ともいう)が聞き手である参加者U21およびU22(以下、「聞き手U21およびU22」ともいう)に対して、聞き手が操作する装置Aに対する操作内容を伝達している。 Here, an example of information processing according to a comparative example will be described with reference to FIG. FIG. 1 is a diagram showing an example of information processing according to a comparative example. In FIG. 1, the participant U11 (hereinafter, also referred to as “transmitter U11”) who is a transmitter is referred to the participants U21 and U22 (hereinafter, also referred to as “listeners U21 and U22”) who are listeners by using remote communication. On the other hand, the operation content for the device A operated by the listener is transmitted.

また、聞き手U21およびU22は、それぞれヘッドマウントディスプレイである端末装置10-21および端末装置10-22を装着しており、端末装置10-21および端末装置10-22それぞれを通して伝え手U11の画像G1を見ることができる。また、聞き手U21およびU22は、端末装置10-21および端末装置10-22にそれぞれ搭載されたスピーカーを通して、伝え手U11の音声を聞くことができる。 Further, the listeners U21 and U22 are equipped with a terminal device 10-21 and a terminal device 10-22, which are head-mounted displays, respectively, and the image G1 of the transmitter U11 is passed through the terminal device 10-21 and the terminal device 10-22, respectively. Can be seen. Further, the listeners U21 and U22 can hear the voice of the transmitter U11 through the speakers mounted on the terminal device 10-21 and the terminal device 10-22, respectively.

また、2人の聞き手のうち、聞き手U21は、装置Aに対する操作の経験を有する経験者である。また、聞き手U22は、装置Aに対する操作の経験を有しない未経験者であり、かつ、音が聞こえにくい状態(難聴)である。図1に示すように、比較例では、聞き手の属性に関わらず、聞き手U21およびU22に対して同じ情報が伝達される。そのため、難聴である聞き手U22にとっては、伝え手U11の音声が聞き取りづらく、操作内容の伝達自体が困難な場合があった。また、未経験者である聞き手U22にとっては、馴染みのない専門用語が頻繁に登場するため、伝達される操作内容を理解することが困難な場合があった。 Further, of the two listeners, the listener U21 is an experienced person who has experience in operating the device A. Further, the listener U22 is an inexperienced person who has no experience in operating the device A, and is in a state where it is difficult to hear the sound (deafness). As shown in FIG. 1, in the comparative example, the same information is transmitted to the listeners U21 and U22 regardless of the attributes of the listener. Therefore, for the listener U22 who has deafness, it may be difficult to hear the voice of the transmitter U11, and it may be difficult to convey the operation content itself. In addition, it may be difficult for the inexperienced listener U22 to understand the transmitted operation content because unfamiliar technical terms frequently appear.

そこで、本願発明は、遠隔コミュニケーションの参加者である聞き手の属性情報に基づいて、遠隔コミュニケーションの参加者である伝え手から聞き手に対して伝達される操作内容であって、聞き手が操作する操作対象に対する操作内容を補う補助情報を聞き手の端末装置に出力するよう制御する。これにより、本願発明は、伝え手によって伝達される操作内容に加えて、聞き手の属性に応じた補助情報を提供することができるので、遠隔コミュニケーションでの複雑な操作内容の伝達を助けることができる。したがって、本願発明は、遠隔コミュニケーションにおける複雑な操作内容の伝達を支援可能にすることができる。 Therefore, the present invention is an operation content transmitted from a transmitter who is a participant of remote communication to a listener based on attribute information of a listener who is a participant of remote communication, and is an operation target operated by the listener. It is controlled to output auxiliary information supplementing the operation contents to the listener's terminal device. As a result, the present invention can provide auxiliary information according to the attributes of the listener in addition to the operation content transmitted by the transmitter, and thus can assist the transmission of complicated operation content in remote communication. .. Therefore, the invention of the present application can support the transmission of complicated operation contents in remote communication.

〔2.情報処理の一例〕
次に、図2を用いて、実施形態に係る情報処理の一例について説明する。図2は、実施形態に係る情報処理の一例を示す図である。図2に示す情報処理は、実施形態に係る情報処理システム1によって実現される。情報処理システム1には、端末装置10と、情報処理装置100とが含まれる。以下の説明では、実施形態に係る情報処理として、端末装置10および情報処理装置100が協働して行う情報処理について説明する。本実施形態では、情報処理装置100は、実施形態に係る情報処理プログラムを実行し、端末装置10と協働することで、実施形態に係る情報処理を行う。
[2. An example of information processing]
Next, an example of information processing according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram showing an example of information processing according to an embodiment. The information processing shown in FIG. 2 is realized by the information processing system 1 according to the embodiment. The information processing system 1 includes a terminal device 10 and an information processing device 100. In the following description, as the information processing according to the embodiment, the information processing performed by the terminal device 10 and the information processing device 100 in cooperation with each other will be described. In the present embodiment, the information processing apparatus 100 executes the information processing program according to the embodiment and performs information processing according to the embodiment by cooperating with the terminal apparatus 10.

図2の説明に先立って、図3を用いて、実施形態に係る情報処理システム1の構成について説明する。図3は、実施形態に係る情報処理システム1の構成例を示す図である。図3に示すように、情報処理システム1には、端末装置10と、情報処理装置100とが含まれる。端末装置10と、情報処理装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。なお、図3に示す情報処理システム1には、任意の数の端末装置10と任意の数の情報処理装置100とが含まれてもよい。 Prior to the description of FIG. 2, the configuration of the information processing system 1 according to the embodiment will be described with reference to FIG. FIG. 3 is a diagram showing a configuration example of the information processing system 1 according to the embodiment. As shown in FIG. 3, the information processing system 1 includes a terminal device 10 and an information processing device 100. The terminal device 10 and the information processing device 100 are connected to each other via a predetermined network N so as to be communicable by wire or wirelessly. The information processing system 1 shown in FIG. 3 may include an arbitrary number of terminal devices 10 and an arbitrary number of information processing devices 100.

端末装置10は、遠隔コミュニケーションの参加者(以下、「参加者」ともいう)によって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)や、ヘッドマウントディスプレイ等である。本実施形態では、聞き手の端末装置10は、ヘッドマウントディスプレイであるものとする。また、伝え手の端末装置10は、ノート型PCであるものとする。 The terminal device 10 is an information processing device used by a participant in remote communication (hereinafter, also referred to as “participant”). The terminal device 10 is, for example, a smartphone, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, a PDA (Personal Digital Assistant), a head-mounted display, or the like. In the present embodiment, the listener's terminal device 10 is assumed to be a head-mounted display. Further, it is assumed that the terminal device 10 of the transmitter is a notebook PC.

また、端末装置10には、遠隔コミュニケーションシステムを利用するためのアプリケーション(以下、「遠隔コミュニケーションアプリ」ともいう)がインストールされている。端末装置10は、遠隔コミュニケーションアプリに対する操作を行うための各種画像(例えば、ツールバーやアイコン等)を画面に表示する。また、端末装置10には、カメラ、マイク、スピーカーなどの機能を有するデバイスが搭載または接続されている。端末装置10は、それぞれのデバイスから入力された映像や音声を複数の拠点間で送受信する。 Further, an application for using the remote communication system (hereinafter, also referred to as "remote communication application") is installed in the terminal device 10. The terminal device 10 displays various images (for example, toolbars, icons, etc.) for operating the remote communication application on the screen. Further, a device having a function such as a camera, a microphone, and a speaker is mounted or connected to the terminal device 10. The terminal device 10 transmits / receives video and audio input from each device between a plurality of bases.

また、端末装置10には、参加者の物理的な状態を検知する各種のセンサが搭載または接続されている。例えば、端末装置10には、上述したカメラやマイクといったセンサが接続されている。端末装置10は、各種のセンサによって、参加者の物理的な状態を示すセンサ情報を検出する。例えば、端末装置10は、センサ情報の一例として、カメラによって参加者の画像を検出する。端末装置10は、センサ情報を検出すると、検出したセンサ情報を情報処理装置100に送信する。 Further, various sensors for detecting the physical state of the participant are mounted or connected to the terminal device 10. For example, the terminal device 10 is connected to the above-mentioned sensors such as a camera and a microphone. The terminal device 10 detects sensor information indicating the physical state of the participant by various sensors. For example, the terminal device 10 detects an image of a participant by a camera as an example of sensor information. When the terminal device 10 detects the sensor information, the terminal device 10 transmits the detected sensor information to the information processing device 100.

また、端末装置10は、情報処理装置100から補助情報を受信する。端末装置10は、補助情報を受信すると、補助情報を出力する。例えば、端末装置10は、補助情報が画像である場合には、補助情報を画面に表示する。また、端末装置10は、補助情報が音声である場合には、補完情報をスピーカーから出力する。 Further, the terminal device 10 receives auxiliary information from the information processing device 100. Upon receiving the auxiliary information, the terminal device 10 outputs the auxiliary information. For example, when the auxiliary information is an image, the terminal device 10 displays the auxiliary information on the screen. Further, when the auxiliary information is voice, the terminal device 10 outputs the complementary information from the speaker.

なお、図3に示すように、端末装置10を利用する参加者に応じて、端末装置10を端末装置10-1~10-N(Nは自然数)のように区別して説明する場合がある。例えば、端末装置10-21は、図2に示す参加者U21によって利用される端末装置10である。また、例えば、端末装置10-22は、図2に示す参加者U22によって利用される端末装置10である。また、以下では、端末装置10-1~10-N(Nは自然数)について、特に区別なく説明する場合には、端末装置10と記載する。 As shown in FIG. 3, the terminal device 10 may be described separately as terminal devices 10-1 to 10-N (N is a natural number) depending on the participants who use the terminal device 10. For example, the terminal device 10-21 is a terminal device 10 used by the participant U21 shown in FIG. Further, for example, the terminal device 10-22 is a terminal device 10 used by the participant U22 shown in FIG. Further, in the following, when the terminal devices 10-1 to 10-N (N is a natural number) will be described without particular distinction, they will be referred to as the terminal device 10.

情報処理装置100は、端末装置10から聞き手の情報を取得する。具体的には、情報処理装置100は、端末装置10から聞き手のセンサ情報を取得する。情報処理装置100は、聞き手のセンサ情報を取得すると、取得した聞き手のセンサ情報に基づいて、聞き手が操作内容に関する操作に困難をきたしているか否かを判定する。続いて、情報処理装置100は、聞き手が操作内容に関する操作に困難をきたしていると判定した場合、聞き手の属性情報に基づいて、伝え手から聞き手に対して伝達される操作内容であって、聞き手が操作する操作対象に対する操作内容を補う補助情報を生成する。また、情報処理装置100は、生成した補助情報を聞き手の端末装置10に出力するよう制御する。具体的には、情報処理装置100は、生成した補助情報を聞き手の端末装置10に送信する。 The information processing device 100 acquires listener information from the terminal device 10. Specifically, the information processing device 100 acquires the sensor information of the listener from the terminal device 10. When the information processing apparatus 100 acquires the sensor information of the listener, the information processing apparatus 100 determines whether or not the listener has difficulty in the operation related to the operation content based on the acquired sensor information of the listener. Subsequently, when the information processing apparatus 100 determines that the listener has difficulty in the operation related to the operation content, the operation content is transmitted from the transmitter to the listener based on the attribute information of the listener. Generates auxiliary information that supplements the operation content for the operation target operated by the listener. Further, the information processing device 100 controls to output the generated auxiliary information to the listener's terminal device 10. Specifically, the information processing device 100 transmits the generated auxiliary information to the listener's terminal device 10.

ここから、図2の説明に戻る。図2では、図1と同様に、遠隔コミュニケーションを用いて、伝え手U11が聞き手U21およびU22に対して、聞き手が操作する装置Aに対する操作内容を伝達している。ここで、図2に示す例では、情報処理装置100が、聞き手U22の属性情報に基づいて、装置Aに対する操作内容を補う補助情報を聞き手U22の端末装置10-22に出力する点が図1と異なる。 From here, it returns to the explanation of FIG. In FIG. 2, similarly to FIG. 1, the transmitter U11 transmits the operation contents for the device A operated by the listener to the listeners U21 and U22 by using remote communication. Here, in the example shown in FIG. 2, the information processing device 100 outputs auxiliary information supplementing the operation contents for the device A to the terminal device 10-22 of the listener U22 based on the attribute information of the listener U22. Is different.

図示は省略するが、まず、聞き手U22が、「わからない単語が多いし、声が聞き取りづらいです。」と発言したとする。このとき、聞き手U22が装着している端末装置10-22に搭載されたマイクは、聞き手U22の発言の音声を検出する。続いて、端末装置10-22は、聞き手U22の発言の音声を検出すると、検出した音声データを情報処理装置100に送信する。 Although the illustration is omitted, first, it is assumed that the listener U22 said, "There are many words that I do not understand and it is difficult to hear the voice." At this time, the microphone mounted on the terminal device 10-22 worn by the listener U22 detects the voice of the listener U22's speech. Subsequently, when the terminal device 10-22 detects the voice of the listener U22's speech, the terminal device 10-22 transmits the detected voice data to the information processing device 100.

情報処理装置100は、端末装置10-22から聞き手U22の音声データを取得する。続いて、情報処理装置100は、聞き手U22の音声データを取得すると、取得した聞き手U22の音声データに基づいて、聞き手U22が操作内容に関する操作に困難をきたしているか否かを判定する。図2では、情報処理装置100は、聞き手U22が操作内容に関する操作に困難をきたしていると判定する。 The information processing device 100 acquires the voice data of the listener U22 from the terminal device 10-22. Subsequently, when the information processing apparatus 100 acquires the voice data of the listener U22, the information processing apparatus 100 determines whether or not the listener U22 has difficulty in the operation related to the operation content based on the acquired voice data of the listener U22. In FIG. 2, the information processing apparatus 100 determines that the listener U22 is having difficulty in operating the operation content.

情報処理装置100は、聞き手U22が操作内容に関する操作に困難をきたしていると判定した場合、聞き手U22が難聴であるという属性情報に基づいて、補助情報の一例として、伝え手U11によって伝達される操作内容を文字にした字幕を含む画像G21を生成する。続いて、情報処理装置100は、生成した画像G21を聞き手U22の端末装置10-22に表示するよう制御する。 When the information processing apparatus 100 determines that the listener U22 is having difficulty in operating the operation content, the information processing apparatus 100 is transmitted by the transmitter U11 as an example of auxiliary information based on the attribute information that the listener U22 has deafness. An image G21 including subtitles in which the operation content is written is generated. Subsequently, the information processing device 100 controls the generated image G21 to be displayed on the terminal device 10-22 of the listener U22.

これにより、情報処理装置100は、難聴である聞き手U22が伝え手U11の音声を聞き取りづらい場合であっても、補助情報である字幕を含む画像G21により視覚的に操作内容を知覚することを可能にする。したがって、情報処理装置100は、難聴である聞き手U22に対する操作内容の伝達を助けることができる。 As a result, the information processing apparatus 100 can visually perceive the operation content by the image G21 including the subtitles as auxiliary information even when the deafness listener U22 has difficulty in hearing the voice of the transmitter U11. To. Therefore, the information processing apparatus 100 can help the listener U22, who has deafness, to transmit the operation content.

また、情報処理装置100は、聞き手U22が操作内容に関する操作に困難をきたしていると判定した場合、聞き手U22が未経験者であるという属性情報に基づいて、補助情報の一例として、伝え手U11によって伝達される操作内容に登場する専門用語の意味を文字にした字幕を含む画像G22を生成する。続いて、情報処理装置100は、生成した画像G22を聞き手U22の端末装置10-22に表示するよう制御する。 Further, when the information processing apparatus 100 determines that the listener U22 is having difficulty in operating the operation content, the information processing apparatus 100 uses the transmitter U11 as an example of auxiliary information based on the attribute information that the listener U22 is an inexperienced person. An image G22 including a subtitle containing the meaning of a technical term appearing in the transmitted operation content is generated. Subsequently, the information processing device 100 controls the generated image G22 to be displayed on the terminal device 10-22 of the listener U22.

これにより、情報処理装置100は、未経験者である聞き手U22にとって馴染みのない専門用語が頻繁に登場する場合であっても、補助情報である字幕を含む画像G22により専門用語の意味をその都度確認可能にすることができる。したがって、情報処理装置100は、未経験者である聞き手U22が操作内容を理解するのを助けることができる。 As a result, the information processing apparatus 100 confirms the meaning of the technical term each time by the image G22 including the subtitle as auxiliary information even when the technical term unfamiliar to the listener U22 who is an inexperienced person frequently appears. Can be made possible. Therefore, the information processing apparatus 100 can help the listener U22, who is an inexperienced person, to understand the operation contents.

〔3.情報処理装置の構成〕
次に、図4を用いて、実施形態に係る情報処理装置100の構成について説明する。図4は、実施形態に係る情報処理装置100の構成例を示す図である。図4に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示させるための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[3. Information processing device configuration]
Next, the configuration of the information processing apparatus 100 according to the embodiment will be described with reference to FIG. FIG. 4 is a diagram showing a configuration example of the information processing apparatus 100 according to the embodiment. As shown in FIG. 4, the information processing apparatus 100 includes a communication unit 110, a storage unit 120, and a control unit 130. The information processing device 100 includes an input unit (for example, a keyboard, a mouse, etc.) that receives various operations from the administrator of the information processing device 100, and a display unit (for example, a liquid crystal display, etc.) for displaying various information. You may have.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、例えば、端末装置10との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. Then, the communication unit 110 is connected to the network by wire or wirelessly, and transmits / receives information to / from, for example, the terminal device 10.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、図4に示すように、参加者情報記憶部121とセンサ情報記憶部122を有する。
(Memory unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. As shown in FIG. 4, the storage unit 120 has a participant information storage unit 121 and a sensor information storage unit 122.

(参加者情報記憶部121)
参加者情報記憶部121は、参加者の属性に関する各種の情報を記憶する。具体的には、参加者情報記憶部121は、参加者を識別可能な識別情報(参加者IDともいう)と参加者の属性情報とを対応付けて記憶する。図5を用いて、参加者情報記憶部121の一例について説明する。図5は、実施形態に係る参加者情報記憶部の一例を示す図である。
(Participant Information Memory Unit 121)
The participant information storage unit 121 stores various information regarding the attributes of the participants. Specifically, the participant information storage unit 121 stores the identification information (also referred to as a participant ID) that can identify the participant and the attribute information of the participant in association with each other. An example of the participant information storage unit 121 will be described with reference to FIG. FIG. 5 is a diagram showing an example of a participant information storage unit according to an embodiment.

図5に示す例では、参加者情報記憶部121は、装置Aに対する操作の経験者であることを示す参加者U21の属性情報である「経験者」と参加者U21の参加者ID「U21」とを対応付けて記憶する。また、参加者情報記憶部121は、装置Aに対する操作の未経験者であることを示す参加者U22の属性情報である「未経験者」および音が聞こえづらい状態であることを示す参加者U22の属性情報である「難聴」と参加者U22の参加者ID「U22」とを対応付けて記憶する。 In the example shown in FIG. 5, the participant information storage unit 121 has the "experienced person" which is the attribute information of the participant U21 indicating that he / she is an experienced person of the operation for the device A, and the participant ID "U21" of the participant U21. And are stored in association with each other. Further, the participant information storage unit 121 is an attribute information of the participant U22 indicating that he / she is an inexperienced person in the operation of the device A, and an attribute of the participant U22 indicating that the sound is difficult to hear. The information "deafness" and the participant ID "U22" of the participant U22 are stored in association with each other.

(センサ情報記憶部122)
センサ情報記憶部122は、参加者の物理的な状態を示す各種のセンサ情報を記憶する。具体的には、センサ情報記憶部122は、参加者を識別可能な識別情報(参加者IDともいう)と参加者のセンサ情報とを対応付けて記憶する。
(Sensor information storage unit 122)
The sensor information storage unit 122 stores various sensor information indicating the physical state of the participant. Specifically, the sensor information storage unit 122 stores the identification information (also referred to as a participant ID) that can identify the participant and the sensor information of the participant in association with each other.

図2に示す例では、センサ情報記憶部122は、参加者U11の画像データおよび音声データと参加者U11の参加者ID「U11」とを対応付けて記憶する。センサ情報記憶部122は、参加者U21の画像データおよび音声データと参加者U21の参加者ID「U21」とを対応付けて記憶する。また、センサ情報記憶部122は、参加者U22の画像データおよび音声データと参加者U22の参加者ID「U22」とを対応付けて記憶する。 In the example shown in FIG. 2, the sensor information storage unit 122 stores the image data and voice data of the participant U11 in association with the participant ID “U11” of the participant U11. The sensor information storage unit 122 stores the image data and audio data of the participant U21 in association with the participant ID “U21” of the participant U21. Further, the sensor information storage unit 122 stores the image data and audio data of the participant U22 in association with the participant ID “U22” of the participant U22.

(制御部130)
図4の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 130)
Returning to the description of FIG. 4, the control unit 130 is a controller, and is stored in a storage device inside the information processing device 100 by, for example, a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). Various programs (corresponding to an example of an information processing program) are realized by executing the RAM as a work area. Further, the control unit 130 is a controller, and is realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図4に示すように、制御部130は、取得部131と、判定部132と、生成部133と、出力制御部134とを有し、以下に説明する情報処理の作用を実現または実行する。なお、制御部130の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 As shown in FIG. 4, the control unit 130 includes an acquisition unit 131, a determination unit 132, a generation unit 133, and an output control unit 134, and realizes or executes the information processing operation described below. The internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 4, and may be any other configuration as long as it is configured to perform information processing described later.

(取得部131)
取得部131は、端末装置10から参加者の情報を取得する。具体的には、取得部131は、端末装置10から聞き手の情報を取得する。また、取得部131は、端末装置10から聞き手のセンサ情報を取得する。例えば、取得部131は、端末装置10から聞き手の画像データおよび音声データを取得する。続いて、取得部131は、聞き手のセンサ情報を取得すると、取得したセンサ情報をセンサ情報記憶部122に格納する。
(Acquisition unit 131)
The acquisition unit 131 acquires the participant's information from the terminal device 10. Specifically, the acquisition unit 131 acquires the listener's information from the terminal device 10. Further, the acquisition unit 131 acquires the sensor information of the listener from the terminal device 10. For example, the acquisition unit 131 acquires image data and audio data of the listener from the terminal device 10. Subsequently, when the acquisition unit 131 acquires the sensor information of the listener, the acquisition unit 131 stores the acquired sensor information in the sensor information storage unit 122.

また、取得部131は、端末装置10から伝え手の情報を取得する。具体的には、取得部131は、端末装置10から伝え手のセンサ情報を取得する。例えば、取得部131は、端末装置10から伝え手の画像データおよび音声データを取得する。続いて、取得部131は、伝え手のセンサ情報を取得すると、取得したセンサ情報をセンサ情報記憶部122に格納する。 Further, the acquisition unit 131 acquires the information of the transmitter from the terminal device 10. Specifically, the acquisition unit 131 acquires the sensor information of the transmitter from the terminal device 10. For example, the acquisition unit 131 acquires image data and voice data of the transmitter from the terminal device 10. Subsequently, when the acquisition unit 131 acquires the sensor information of the transmitter, the acquisition unit 131 stores the acquired sensor information in the sensor information storage unit 122.

(判定部132)
判定部132は、聞き手の情報に基づいて、聞き手が操作内容に関する操作に困難をきたしているか否かを判定する。具体的には、判定部132は、取得部131によって取得された聞き手のセンサ情報に基づいて、聞き手が操作内容に関する操作に困難をきたしているか否かを判定する。
(Judgment unit 132)
The determination unit 132 determines whether or not the listener has difficulty in operating the operation content based on the information of the listener. Specifically, the determination unit 132 determines whether or not the listener has difficulty in operating the operation content based on the sensor information of the listener acquired by the acquisition unit 131.

例えば、判定部132は、取得部131によって取得された聞き手の音声データに基づいて、聞き手が操作内容に関する操作に困難をきたしているか否かを判定する。例えば、判定部132は、公知の音声認識技術を用いて、取得部131によって取得された聞き手の音声データを文字列に変換する。図2に示す例では、判定部132は、聞き手U22の音声データを文字列である「わからない単語が多いし、声が聞き取りづらいです。」に変換する。 For example, the determination unit 132 determines whether or not the listener has difficulty in operating the operation content based on the voice data of the listener acquired by the acquisition unit 131. For example, the determination unit 132 converts the listener's voice data acquired by the acquisition unit 131 into a character string by using a known voice recognition technique. In the example shown in FIG. 2, the determination unit 132 converts the voice data of the listener U22 into a character string "many unknown words and the voice is difficult to hear."

続いて、判定部132は、変換した文字列を形態素解析して、単語に分解する。続いて、判定部132は、分解された単語の中に特定の単語が含まれるか否かを判定する。例えば、判定部132は、聞き手が操作内容に関する操作に困難をきたしている場合に発せられやすい単語リスト(以下、単語リストともいう)に含まれる単語が分解された単語の中に含まれるか否かを判定する。例えば、単語リストには、「わからない」、「困った」、「聞き取りづらい」などの単語が含まれているとする。図2に示す例では、判定部132は、分解された単語の中に単語リストに含まれる単語である「わからない」と「聞き取りづらい」が含まれると判定する。 Subsequently, the determination unit 132 morphologically analyzes the converted character string and decomposes it into words. Subsequently, the determination unit 132 determines whether or not a specific word is included in the decomposed words. For example, the determination unit 132 determines whether or not a word included in a word list (hereinafter, also referred to as a word list) that is likely to be issued when the listener has difficulty in operating the operation content is included in the decomposed words. Is determined. For example, suppose the word list contains words such as "I don't know," "I'm in trouble," and "I'm hard to hear." In the example shown in FIG. 2, the determination unit 132 determines that the decomposed words include the words "not understood" and "difficult to hear" included in the word list.

続いて、判定部132は、分解された単語の中に特定の単語が含まれると判定した場合、聞き手が操作内容に関する操作に困難をきたしていると判定する。一方、判定部132は、分解された単語の中に特定の単語が含まれないと判定した場合、聞き手が操作内容に関する操作に困難をきたしていないと判定する。図2に示す例では、判定部132は、分解された単語の中に単語リストに含まれる単語である「わからない」と「聞き取りづらい」が含まれると判定したので、聞き手U22が操作内容に関する操作に困難をきたしていると判定する。 Subsequently, when it is determined that the decomposed word includes a specific word, the determination unit 132 determines that the listener has difficulty in the operation related to the operation content. On the other hand, when it is determined that the decomposed word does not include a specific word, the determination unit 132 determines that the listener has not made any difficulty in the operation related to the operation content. In the example shown in FIG. 2, the determination unit 132 determines that the decomposed words include the words "I do not understand" and "difficult to hear" which are the words included in the word list, so that the listener U22 operates the operation contents. Judge that it is causing difficulty.

(生成部133)
生成部133は、遠隔コミュニケーションの参加者である聞き手の情報に基づいて、遠隔コミュニケーションの参加者である伝え手から聞き手に対して伝達される操作内容であって、聞き手が操作する操作対象に対する操作内容を補う補助情報を生成する。具体的には、生成部133は、判定部132によって聞き手が操作に困難をきたしていると判定された場合に、補助情報を生成する。例えば、生成部133は、聞き手の情報の一例として、聞き手の属性に関する属性情報に基づいて、補助情報を生成する。
(Generation unit 133)
The generation unit 133 is an operation content transmitted from the transmitter who is a participant of the remote communication to the listener based on the information of the listener who is a participant of the remote communication, and is an operation for the operation target operated by the listener. Generate supplementary information to supplement the content. Specifically, the generation unit 133 generates auxiliary information when the determination unit 132 determines that the listener is having difficulty in operation. For example, the generation unit 133 generates auxiliary information based on the attribute information regarding the attributes of the listener as an example of the information of the listener.

図2に示す例では、生成部133は、判定部132によって聞き手U22が操作内容に関する操作に困難をきたしていると判定された場合、参加者情報記憶部121を参照して、聞き手U22の属性情報を取得する。例えば、生成部133は、聞き手U22が難聴であるという属性情報を取得する。続いて、生成部133は、聞き手U22が難聴であるという属性情報を取得すると、聞き手U22が難聴であるという属性情報に基づいて、補助情報の一例として、伝え手U11によって伝達される操作内容を文字にした字幕を含む画像G21を生成する。例えば、生成部133は、センサ情報記憶部122を参照して、伝え手U11の音声データを取得する。続いて、生成部133は、公知の音声認識技術を用いて、伝え手U11の音声データを文字列に変換する。続いて、生成部133は、変換した文字列に基づいて、伝え手U11によって伝達される操作内容を文字にした字幕を含む画像G21を生成する。 In the example shown in FIG. 2, when the determination unit 132 determines that the listener U22 is having difficulty in the operation related to the operation content, the generation unit 133 refers to the participant information storage unit 121 and attributes the listener U22. Get information. For example, the generation unit 133 acquires the attribute information that the listener U22 has deafness. Subsequently, when the generation unit 133 acquires the attribute information that the listener U22 has deafness, the generation unit 133 obtains the operation content transmitted by the transmitter U11 as an example of the auxiliary information based on the attribute information that the listener U22 has deafness. The image G21 including the subtitles in characters is generated. For example, the generation unit 133 refers to the sensor information storage unit 122 and acquires the voice data of the transmitter U11. Subsequently, the generation unit 133 converts the voice data of the transmitter U11 into a character string by using a known voice recognition technique. Subsequently, the generation unit 133 generates an image G21 including subtitles in which the operation content transmitted by the transmitter U11 is a character, based on the converted character string.

また、生成部133は、判定部132によって聞き手U22が操作内容に関する操作に困難をきたしていると判定された場合、参加者情報記憶部121を参照して、聞き手U22が未経験者であるという属性情報を取得する。続いて、生成部133は、聞き手U22が未経験者であるという属性情報を取得すると、聞き手U22が未経験者であるという属性情報に基づいて、補助情報の一例として、伝え手U11によって伝達される操作内容に登場する専門用語の意味を文字にした字幕を含む画像G22を生成する。例えば、生成部133は、センサ情報記憶部122を参照して、伝え手U11の音声データを取得する。続いて、生成部133は、公知の音声認識技術を用いて、伝え手U11の音声データを文字列に変換する。続いて、生成部133は、変換した文字列の中から伝え手U11によって伝達される操作内容に登場する専門用語を抽出する。続いて、生成部133は、専門用語の意味が掲載された辞書等を参照して、抽出した専門用語の意味を文字にした字幕を含む画像G22を生成する。 Further, when the determination unit 132 determines that the listener U22 is having difficulty in operating the operation content, the generation unit 133 refers to the participant information storage unit 121 and has an attribute that the listener U22 is an inexperienced person. Get information. Subsequently, when the generation unit 133 acquires the attribute information that the listener U22 is an inexperienced person, the operation transmitted by the transmitter U11 as an example of the auxiliary information based on the attribute information that the listener U22 is an inexperienced person. An image G22 including subtitles in which the meanings of technical terms appearing in the content are written is generated. For example, the generation unit 133 refers to the sensor information storage unit 122 and acquires the voice data of the transmitter U11. Subsequently, the generation unit 133 converts the voice data of the transmitter U11 into a character string by using a known voice recognition technique. Subsequently, the generation unit 133 extracts technical terms appearing in the operation content transmitted by the transmitter U11 from the converted character string. Subsequently, the generation unit 133 refers to a dictionary or the like in which the meaning of the technical term is posted, and generates an image G22 including a subtitle containing the meaning of the extracted technical term as a character.

(出力制御部134)
出力制御部134は、生成部133によって生成された補助情報を聞き手の端末装置10に出力するよう制御する。具体的には、出力制御部134は、生成部133によって補助情報が生成されると、生成部133によって生成された補助情報を聞き手の端末装置10に送信する。図2に示す例では、出力制御部134は、生成部133によって画像G21および画像G22が生成されると、生成された画像G21および画像G22を聞き手U22の端末装置10-22に送信する。
(Output control unit 134)
The output control unit 134 controls to output the auxiliary information generated by the generation unit 133 to the terminal device 10 of the listener. Specifically, when the auxiliary information is generated by the generation unit 133, the output control unit 134 transmits the auxiliary information generated by the generation unit 133 to the listener's terminal device 10. In the example shown in FIG. 2, when the image G21 and the image G22 are generated by the generation unit 133, the output control unit 134 transmits the generated images G21 and the image G22 to the terminal device 10-22 of the listener U22.

〔4.変形例〕
上述した実施形態に係る情報処理システム1は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理システム1の他の実施形態について説明する。なお、実施形態と同一部分には、同一符号を付して説明を省略する。
[4. Modification example]
The information processing system 1 according to the above-described embodiment may be implemented in various different forms other than the above-described embodiment. Therefore, another embodiment of the information processing system 1 will be described below. The same parts as those in the embodiment are designated by the same reference numerals, and the description thereof will be omitted.

〔4-1.第1の変形例〕
まず、図6を用いて、第1の変形例に係る情報処理について説明する。図6は、第1の変形例に係る情報処理の一例を示す図である。図6では、図2と同様に、遠隔コミュニケーションを用いて、伝え手U11が聞き手U21およびU22に対して、聞き手が操作する装置Aに対する操作内容を伝達している。ここで、図6に示す例では、情報処理装置100が、聞き手U22が所在する現場の音声情報に基づいて、装置Aに対する操作内容を補う補助情報を聞き手U22の端末装置10-22に出力する点が図2と異なる。
[4-1. First modification]
First, information processing according to the first modification will be described with reference to FIG. FIG. 6 is a diagram showing an example of information processing according to the first modification. In FIG. 6, similarly to FIG. 2, the transmitter U11 transmits the operation contents for the device A operated by the listener to the listeners U21 and U22 by using remote communication. Here, in the example shown in FIG. 6, the information processing apparatus 100 outputs auxiliary information supplementing the operation contents to the apparatus A to the terminal apparatus 10-22 of the listener U22 based on the voice information of the site where the listener U22 is located. The point is different from FIG.

図示は省略するが、まず、聞き手U22が、「読めない漢字があるので、ひらがなにしてほしい。あと、文字をもっと大きくしてほしい。」と発言したとする。このとき、聞き手U22が装着している端末装置10-22に搭載されたマイクは、聞き手U22の発言の音声を検出する。続いて、端末装置10-22は、聞き手U22の発言の音声を検出すると、検出した音声データを情報処理装置100に送信する。 Although not shown, it is assumed that the listener U22 first said, "There are some unreadable Chinese characters, so I want you to use hiragana. Also, I want you to make the characters larger." At this time, the microphone mounted on the terminal device 10-22 worn by the listener U22 detects the voice of the listener U22's speech. Subsequently, when the terminal device 10-22 detects the voice of the listener U22's speech, the terminal device 10-22 transmits the detected voice data to the information processing device 100.

取得部131は、端末装置10-22から聞き手U22の音声データを取得する。判定部132は、公知の音声認識技術を用いて、取得部131によって取得された聞き手U22の音声データを文字列である「読めない漢字があるので、ひらがなにしてほしい。あと、文字をもっと大きくしてほしい。」に変換する。 The acquisition unit 131 acquires the voice data of the listener U22 from the terminal device 10-22. The determination unit 132 uses a known voice recognition technique to convert the voice data of the listener U22 acquired by the acquisition unit 131 into a character string "There are unreadable Chinese characters, so please make them hiragana. Also, make the characters larger. I want you to do it. "

続いて、判定部132は、変換した文字列を形態素解析して、単語に分解する。続いて、判定部132は、上述した単語リストに含まれる単語が分解された単語の中に含まれるか否かを判定する。図6に示す例では、判定部132は、分解された単語の中に単語リストに含まれる単語である「読めない」と「してほしい」が含まれると判定する。 Subsequently, the determination unit 132 morphologically analyzes the converted character string and decomposes it into words. Subsequently, the determination unit 132 determines whether or not the word included in the above-mentioned word list is included in the decomposed word. In the example shown in FIG. 6, the determination unit 132 determines that the decomposed words include the words "unreadable" and "want to do" included in the word list.

続いて、判定部132は、分解された単語の中に単語リストに含まれる単語である「読めない」と「してほしい」が含まれると判定したので、聞き手U22が操作内容に関する操作に困難をきたしていると判定する。 Subsequently, the determination unit 132 determines that the decomposed words include the words "unreadable" and "want to read" included in the word list, so that the listener U22 has difficulty in operating the operation content. Is determined to have occurred.

図6に示す例では、生成部133は、判定部132によって聞き手U22が操作内容に関する操作に困難をきたしていると判定された場合、聞き手U22の音声データを変換した文字列に含まれる「ひらがなにしてほしい」に基づいて、補助情報の一例として、伝え手U11によって伝達される操作内容をひらがなで表記した字幕を含む画像G31を生成する。 In the example shown in FIG. 6, when the determination unit 132 determines that the listener U22 is having difficulty in operating the operation content, the generation unit 133 includes "hiragana" included in the character string converted from the voice data of the listener U22. Based on "I want you to do it", as an example of auxiliary information, an image G31 including a subtitle in which the operation content transmitted by the transmitter U11 is described in hiragana is generated.

具体的には、生成部133は、聞き手U22の音声データを変換した文字列に含まれる「ひらがなにしてほしい」の意味を「ひらがなに変換してほしい」であると解析する。続いて、生成部133は、聞き手U22の音声データを変換した文字列を意味解析すると、記憶部120に記憶された処理リストを参照して、意味解析した結果に対応する処理を実行する。より具体的には、記憶部120は、「〇〇してほしい」という文字列と「〇〇」に対応する処理とが対応付けられた処理リストを記憶する。例えば、記憶部120は、「ひらがなに変換してほしい」という文字列と、ひらがなに変換する処理とが対応付けられた処理リストを記憶する。生成部133は、意味解析した結果である「ひらがなに変換してほしい」という文字列に対応する処理として、伝え手U11の音声データをひらがなに変換する処理を実行する。例えば、生成部133は、公知の音声認識技術を用いて、伝え手U11の音声データを文字列に変換する。続いて、生成部133は、変換した文字列をひらがなに変換する。続いて、生成部133は、伝え手U11によって伝達される操作内容をひらがなで表記した字幕を含む画像G31を生成する。 Specifically, the generation unit 133 analyzes that the meaning of "I want you to convert to hiragana" included in the character string obtained by converting the voice data of the listener U22 is "I want you to convert to hiragana". Subsequently, when the generation unit 133 semantically analyzes the character string converted from the voice data of the listener U22, the generation unit 133 refers to the processing list stored in the storage unit 120 and executes the processing corresponding to the result of the semantic analysis. More specifically, the storage unit 120 stores a processing list in which the character string "I want you to do XX" and the processing corresponding to "XX" are associated with each other. For example, the storage unit 120 stores a processing list in which the character string "I want you to convert to hiragana" and the processing to convert to hiragana are associated with each other. The generation unit 133 executes a process of converting the voice data of the transmitter U11 into hiragana as a process corresponding to the character string "I want you to convert to hiragana" which is the result of the semantic analysis. For example, the generation unit 133 converts the voice data of the transmitter U11 into a character string by using a known voice recognition technique. Subsequently, the generation unit 133 converts the converted character string into hiragana. Subsequently, the generation unit 133 generates an image G31 including a subtitle in which the operation content transmitted by the transmitter U11 is described in hiragana.

また、生成部133は、判定部132によって聞き手U22が操作内容に関する操作に困難をきたしていると判定された場合、聞き手U22の音声データを変換した文字列に含まれる「文字をもっと大きくしてほしい」に基づいて、補助情報の一例として、伝え手U11によって伝達される操作内容を示す文字の大きさが拡大された字幕を含む画像G31を生成する。 Further, when the determination unit 132 determines that the listener U22 is having difficulty in the operation related to the operation content, the generation unit 133 "makes the character larger" included in the character string obtained by converting the voice data of the listener U22. Based on "I want", as an example of auxiliary information, an image G31 including a subtitle in which the size of characters indicating the operation content transmitted by the transmitter U11 is enlarged is generated.

具体的には、生成部133は、聞き手U22の音声データを変換した文字列に含まれる「文字をもっと大きくしてほしい」の意味を「文字のサイズを拡大してほしい」であると解析する。生成部133は、聞き手U22の音声データを変換した文字列を意味解析すると、記憶部120に記憶された処理リストを参照して、意味解析した結果に基づく処理を実行する。例えば、記憶部120は、「文字のサイズを拡大してほしい」という文字列と、文字のサイズを拡大する処理とが対応付けられた処理リストを記憶する。生成部133は、意味解析した結果である「文字のサイズを拡大してほしい」という文字列に対応する処理として、伝え手U11によって伝達される操作内容を示す文字のサイズを拡大する処理を実行する。例えば、生成部133は、伝え手U11の音声データを変換した文字列に基づいて、伝え手U11によって伝達される操作内容を示す文字のサイズを拡大した字幕を含む画像G31を生成する。 Specifically, the generation unit 133 analyzes that the meaning of "I want you to make the character larger" included in the character string converted from the voice data of the listener U22 is "I want you to increase the size of the character". .. When the generation unit 133 semantically analyzes the character string converted from the voice data of the listener U22, the generation unit 133 refers to the processing list stored in the storage unit 120 and executes the processing based on the result of the semantic analysis. For example, the storage unit 120 stores a processing list in which a character string "I want you to increase the size of a character" and a process for increasing the size of a character are associated with each other. The generation unit 133 executes a process of enlarging the size of the character indicating the operation content transmitted by the transmitter U11 as a process corresponding to the character string "I want you to increase the size of the character" which is the result of the semantic analysis. do. For example, the generation unit 133 generates an image G31 including a subtitle in which the size of the character indicating the operation content transmitted by the transmitter U11 is enlarged based on the character string obtained by converting the voice data of the transmitter U11.

出力制御部134は、生成部133によって画像G31が生成されると、生成された画像G31を聞き手U22の端末装置10-22に送信する。 When the image G31 is generated by the generation unit 133, the output control unit 134 transmits the generated image G31 to the terminal device 10-22 of the listener U22.

図6では、生成部133が、補助情報の一例として、伝え手U11によって伝達される操作内容をひらがなで表記した文字情報を生成する例について説明したが、ひらがな以外で表記した文字情報を生成してもよい。例えば、生成部133は、補助情報の一例として、カタカナ、漢字またはローマ字で表記された文字情報を生成してもよい。 In FIG. 6, as an example of auxiliary information, the generation unit 133 has described an example of generating character information in which the operation content transmitted by the transmitter U11 is expressed in hiragana. However, the generation unit 133 generates character information expressed in other than hiragana. You may. For example, the generation unit 133 may generate character information written in katakana, kanji, or romaji as an example of auxiliary information.

なお、生成部133は、補助情報の一例として、日本語以外の他の言語に翻訳された文字情報を生成してもよい。例えば、生成部133は、聞き手の母国語が英語であるという属性情報に基づいて、伝え手によって伝達される操作内容を英語に翻訳した字幕を生成してもよい。 The generation unit 133 may generate character information translated into a language other than Japanese as an example of auxiliary information. For example, the generation unit 133 may generate subtitles in which the operation content transmitted by the transmitter is translated into English based on the attribute information that the listener's mother tongue is English.

また、図6では、生成部133が、補助情報の一例として、伝え手U11によって伝達される操作内容を示す文字の大きさが拡大された文字情報を生成する例について説明したが、これに限られない。例えば、生成部133は、補助情報の一例として、文字の大きさが縮小された文字情報を生成してもよい。 Further, in FIG. 6, as an example of auxiliary information, an example in which the generation unit 133 generates character information in which the size of characters indicating the operation contents transmitted by the transmitter U11 is enlarged has been described, but the present invention is limited to this. I can't. For example, the generation unit 133 may generate character information in which the size of characters is reduced as an example of auxiliary information.

〔4-2.第2の変形例〕
次に、図7を用いて、第2の変形例に係る情報処理について説明する。図7は、第2の変形例に係る情報処理の一例を示す図である。図7では、遠隔コミュニケーションを用いて、伝え手U11が、同じ現場に所在する聞き手U23およびU24に対して、聞き手が操作する装置O1に対する操作内容を伝達している。
[4-2. Second variant]
Next, the information processing according to the second modification will be described with reference to FIG. 7. FIG. 7 is a diagram showing an example of information processing according to the second modification. In FIG. 7, the transmitter U11 uses remote communication to convey to the listeners U23 and U24 located at the same site, the operation content for the device O1 operated by the listener.

取得部131は、聞き手U21およびU22が所在する現場の画像情報を取得する。例えば、取得部131は、聞き手U21およびU22が所在する現場に設置されたカメラC1から聞き手U21およびU22が所在する現場の画像情報を取得する。 The acquisition unit 131 acquires image information of the site where the listeners U21 and U22 are located. For example, the acquisition unit 131 acquires image information of the site where the listeners U21 and U22 are located from the camera C1 installed at the site where the listeners U21 and U22 are located.

判定部132は、聞き手U21およびU22が所在する現場の画像情報に基づいて、伝え手から聞き手に対して操作内容を伝達するタイミングを判定する。具体的には、判定部132は、取得部131によって取得された現場の画像情報に基づいて、聞き手U21およびU22が操作内容を確認している最中であるか否かを判定する。 The determination unit 132 determines the timing at which the operation content is transmitted from the transmitter to the listener based on the image information of the site where the listeners U21 and U22 are located. Specifically, the determination unit 132 determines whether or not the listeners U21 and U22 are in the process of confirming the operation content based on the image information of the site acquired by the acquisition unit 131.

例えば、判定部132は、公知の物体認識技術を用いて、現場の画像情報に含まれる装置O1の領域を特定する。また、判定部132は、公知の姿勢推定技術を用いて、現場の画像情報に含まれる聞き手U21およびU22の人物領域を特定する。続いて、判定部132は、特定された聞き手U21およびU22のうち少なくともいずれか一方が装置O1に接触しているか否かを判定する。判定部132は、聞き手U21およびU22のうち少なくともいずれか一方が装置O1に接触していると判定した場合、聞き手U21およびU22が操作内容を確認している最中であると判定する。続いて、判定部132は、聞き手U21およびU22が操作内容を確認している最中であると判定した場合、伝え手から聞き手に対して操作内容を伝達するタイミングではないと判定する。 For example, the determination unit 132 identifies a region of the device O1 included in the image information at the site by using a known object recognition technique. Further, the determination unit 132 identifies the person areas of the listeners U21 and U22 included in the image information of the site by using a known posture estimation technique. Subsequently, the determination unit 132 determines whether or not at least one of the specified listeners U21 and U22 is in contact with the device O1. When the determination unit 132 determines that at least one of the listeners U21 and U22 is in contact with the device O1, it is determined that the listeners U21 and U22 are in the process of confirming the operation content. Subsequently, when the determination unit 132 determines that the listeners U21 and U22 are in the process of confirming the operation content, the determination unit 132 determines that it is not the timing for transmitting the operation content from the transmitter to the listener.

生成部133は、判定部132によって伝え手から聞き手に対して操作内容を伝達するタイミングではないと判定された場合、次の操作内容を伝達するのを少し待つよう促す画像を生成する。出力制御部134は、生成部133によって次の操作内容を伝達するのを少し待つよう促す画像が生成されると、生成された画像を伝え手の端末装置10に表示するよう制御する。 When the determination unit 132 determines that it is not the timing for transmitting the operation content from the transmitter to the listener, the generation unit 133 generates an image prompting the user to wait for a while to transmit the next operation content. When the output control unit 134 generates an image prompting the generation unit 133 to wait for a while to transmit the next operation content, the output control unit 134 controls to display the generated image on the terminal device 10 of the transmitter.

一方、判定部132は、聞き手U21およびU22のいずれも装置O1に接触していないと判定した場合、聞き手U21およびU22が操作内容を確認している最中ではないと判定する。続いて、判定部132は、聞き手U21およびU22が操作内容を確認している最中ではないと判定した場合、伝え手から聞き手に対して操作内容を伝達するタイミングであると判定する。 On the other hand, when the determination unit 132 determines that neither the listener U21 nor the U22 is in contact with the device O1, the determination unit 132 determines that the listeners U21 and U22 are not in the process of confirming the operation content. Subsequently, when the determination unit 132 determines that the listeners U21 and U22 are not in the process of confirming the operation content, the determination unit 132 determines that it is the timing for transmitting the operation content from the transmitter to the listener.

生成部133は、判定部132によって伝え手から聞き手に対して操作内容を伝達するタイミングであると判定された場合、次の操作内容を伝達するのを促す画像を生成してもよい。出力制御部134は、生成部133によって次の操作内容を伝達するのを促す画像が生成されると、生成された画像を伝え手の端末装置10に表示するよう制御してもよい。このようにして、出力制御部134は、判定部132によって判定されたタイミングに関する情報を伝え手の端末装置10に出力するよう制御する。 When the determination unit 132 determines that it is the timing for transmitting the operation content from the transmitter to the listener, the generation unit 133 may generate an image prompting the transmission of the next operation content. When the output control unit 134 generates an image prompting the generation unit 133 to transmit the next operation content, the output control unit 134 may control to display the generated image on the terminal device 10 of the transmitter. In this way, the output control unit 134 controls to output the information regarding the timing determined by the determination unit 132 to the terminal device 10 of the transmitter.

図7では、判定部132が、聞き手U21およびU22が所在する現場の画像情報に基づいて、伝え手から聞き手に対して操作内容を伝達するタイミングを判定する例について説明したが、聞き手の情報は画像情報でなくてもよい。具体的には、判定部132は、聞き手が所在する現場の音声情報に基づいて、伝え手から聞き手に対して操作内容を伝達するタイミングを判定してもよい。判定部132は、現場の音声情報に基づいて、聞き手U21およびU22による発話がない状態が所定の時間以上であるか否かを判定する。判定部132は、例えば、聞き手U21およびU22による発話がない状態が所定の時間以上であると判定した場合、伝え手から聞き手に対して操作内容を伝達するタイミングであると判定してもよい。あるいは、判定部132は、現場の音声情報に基づいて、聞き手U21およびU22による発話に「OKです」といった文言が含まれるか否かを判定する。判定部132は、例えば、聞き手U21およびU22による発話に「OKです」といった文言が含まれると判定した場合、伝え手から聞き手に対して操作内容を伝達するタイミングであると判定してもよい。 FIG. 7 has described an example in which the determination unit 132 determines the timing at which the operation content is transmitted from the transmitter to the listener based on the image information of the site where the listeners U21 and U22 are located. It does not have to be image information. Specifically, the determination unit 132 may determine the timing at which the operation content is transmitted from the transmitter to the listener based on the voice information of the site where the listener is located. The determination unit 132 determines whether or not there is no utterance by the listeners U21 and U22 for a predetermined time or longer based on the voice information at the site. For example, when the determination unit 132 determines that there is no utterance by the listeners U21 and U22 for a predetermined time or longer, the determination unit 132 may determine that it is the timing for transmitting the operation content from the transmitter to the listener. Alternatively, the determination unit 132 determines whether or not the utterance by the listeners U21 and U22 includes a word such as "OK" based on the voice information at the site. For example, when the determination unit 132 determines that the utterances made by the listeners U21 and U22 include a word such as "OK", the determination unit 132 may determine that it is the timing for transmitting the operation content from the transmitter to the listener.

また、判定部132は、聞き手が操作する装置O1から発生するシグナル情報に基づいて、伝え手から聞き手に対して操作内容を伝達するタイミングを判定してもよい。例えば、判定部132は、聞き手が装置O1を操作している時のみ発生するシグナル情報を装置O1から取得することができる。続いて、判定部132は、取得したシグナル情報に基づいて、聞き手による操作が行われていない状態が所定の時間以上であるか否かを判定する。判定部132は、例えば、聞き手による操作が行われていない状態が所定の時間以上であると判定した場合、伝え手から聞き手に対して操作内容を伝達するタイミングであると判定してもよい。あるいは、判定部132は、取得したシグナル情報に基づいて、聞き手による操作が行われている状態が所定の時間以上であるか否かを判定する。判定部132は、例えば、聞き手による操作が行われている状態が所定の時間以上であると判定した場合、伝え手から聞き手に対して操作内容を伝達するタイミングではないと判定してもよい。 Further, the determination unit 132 may determine the timing at which the operation content is transmitted from the transmitter to the listener based on the signal information generated from the device O1 operated by the listener. For example, the determination unit 132 can acquire signal information generated only when the listener is operating the device O1 from the device O1. Subsequently, the determination unit 132 determines, based on the acquired signal information, whether or not the state in which the listener is not operating is a predetermined time or longer. For example, when the determination unit 132 determines that the state in which the operation by the listener has not been performed is for a predetermined time or longer, the determination unit 132 may determine that it is the timing for transmitting the operation content from the transmitter to the listener. Alternatively, the determination unit 132 determines whether or not the state in which the operation by the listener is being performed is equal to or longer than a predetermined time, based on the acquired signal information. For example, when the determination unit 132 determines that the state in which the operation by the listener is being performed is for a predetermined time or longer, the determination unit 132 may determine that it is not the timing for transmitting the operation content from the transmitter to the listener.

〔4-3.第3の変形例〕
次に、図8を用いて、第3の変形例に係る情報処理について説明する。図8は、第3の変形例に係る情報処理の一例を示す図である。図8では、遠隔コミュニケーションを用いて、伝え手U11が、聞き手U25に対して、聞き手U25が操作するドローンのコントローラO25に対する操作内容を伝達している。
[4-3. Third variant]
Next, the information processing according to the third modification will be described with reference to FIG. FIG. 8 is a diagram showing an example of information processing according to the third modification. In FIG. 8, the transmitter U11 conveys to the listener U25 the operation content of the drone controller O25 operated by the listener U25 by using remote communication.

図8では、取得部131が、聞き手U25によるコントローラO25に対する操作を撮像した操作動画を取得する。例えば、取得部131は、眼鏡型のヘッドマウントディスプレイである聞き手U25の端末装置10-25に搭載されたカメラC25から、聞き手U25によるコントローラO25に対する操作を撮像した操作動画を取得する。出力制御部134は、取得部131によって取得された操作動画を伝え手U11の端末装置10の画面に表示するよう制御する。これにより、伝え手側は、取得部131によって取得された操作動画を繰り返し再生することができるため、聞き手側の評価をよりしやすくなる。 In FIG. 8, the acquisition unit 131 acquires an operation moving image of an operation on the controller O25 by the listener U25. For example, the acquisition unit 131 acquires an operation moving image of the operation of the listener U25 on the controller O25 from the camera C25 mounted on the terminal device 10-25 of the listener U25, which is a spectacle-type head-mounted display. The output control unit 134 controls to display the operation moving image acquired by the acquisition unit 131 on the screen of the terminal device 10 of the handset U11. As a result, the transmitter side can repeatedly play back the operation moving image acquired by the acquisition unit 131, which makes it easier for the listener side to evaluate.

また、取得部131は、聞き手U25の操作に対する伝え手U11の評価を示す評価情報を伝え手U11の端末装置10から取得する。出力制御部134は、取得部131によって取得された評価情報を聞き手U25の端末装置10-25に出力するよう制御する。 Further, the acquisition unit 131 acquires evaluation information indicating the evaluation of the transmitter U11 with respect to the operation of the listener U25 from the terminal device 10 of the transmitter U11. The output control unit 134 controls to output the evaluation information acquired by the acquisition unit 131 to the terminal device 10-25 of the listener U25.

〔4-4.第4の変形例〕
次に、図9を用いて、第4の変形例に係る情報処理について説明する。図9は、第4の変形例に係る情報処理の一例を示す図である。図9では、図8と同様に、遠隔コミュニケーションを用いて、伝え手U11が、聞き手U26に対して、聞き手U26が操作するドローンのコントローラO26に対する操作内容を伝達している。
[4-4. Fourth variant]
Next, the information processing according to the fourth modification will be described with reference to FIG. 9. FIG. 9 is a diagram showing an example of information processing according to the fourth modification. In FIG. 9, similarly to FIG. 8, the transmitter U11 conveys to the listener U26 the operation content of the drone controller O26 operated by the listener U26 by using remote communication.

図9では、生成部133が、聞き手の情報の一例として、聞き手U26がドローンを操作するのに用いられるコントローラO26の信号情報に基づいて、補助情報である見本動画G42を生成する。具体的には、取得部131は、聞き手U26のコントローラO26からコントローラO26の信号情報を取得する。続いて、判定部132は、取得部131によって取得された信号情報に基づいて、聞き手U26が操作内容に関する操作に困難をきたしているか否かを判定する。例えば、判定部132は、取得部131によって取得された信号情報に基づいて、聞き手U26が現在行っている操作を判定する。続いて、判定部132は、あらかじめ用意された操作手順に基づいて、聞き手U26が現在行っている操作が操作手順と比べてどの程度遅れているかを判定する。例えば、判定部132は、聞き手U26が現在行っている操作が操作手順と比べて所定の閾値を超えて遅れていると判定した場合には、聞き手U26が操作内容に関する操作に困難をきたしていると判定する。生成部133は、判定部132によって聞き手U26が操作内容に関する操作に困難をきたしていると判定された場合、ドローンに対する見本操作を撮像した見本動画G42を生成する。出力制御部134は、生成部133によって生成された見本動画G42を聞き手U26の端末装置10-26に表示するよう制御する。例えば、出力制御部134は、聞き手U26による実際の操作を撮像した動画G41の横に同じ大きさの見本動画G42が表示されるように制御する。 In FIG. 9, the generation unit 133 generates the sample moving image G42, which is auxiliary information, based on the signal information of the controller O26 used by the listener U26 to operate the drone as an example of the listener's information. Specifically, the acquisition unit 131 acquires the signal information of the controller O26 from the controller O26 of the listener U26. Subsequently, the determination unit 132 determines whether or not the listener U26 has difficulty in the operation related to the operation content based on the signal information acquired by the acquisition unit 131. For example, the determination unit 132 determines the operation currently being performed by the listener U26 based on the signal information acquired by the acquisition unit 131. Subsequently, the determination unit 132 determines how much the operation currently being performed by the listener U26 is delayed from the operation procedure based on the operation procedure prepared in advance. For example, when the determination unit 132 determines that the operation currently being performed by the listener U26 is delayed by exceeding a predetermined threshold value as compared with the operation procedure, the listener U26 has difficulty in operating the operation content. Is determined. When the determination unit 132 determines that the listener U26 is having difficulty in operating the operation content, the generation unit 133 generates a sample moving image G42 that captures the sample operation for the drone. The output control unit 134 controls to display the sample moving image G42 generated by the generation unit 133 on the terminal devices 10-26 of the listener U26. For example, the output control unit 134 controls so that the sample moving image G42 of the same size is displayed next to the moving image G41 that captures the actual operation by the listener U26.

〔4-5.その他の変形例〕
生成部133は、聞き手の情報の一例として、聞き手が所在する現場の画像情報に基づいて、補助情報を生成してもよい。例えば、生成部133は、聞き手が所在する現場の画像情報に基づいて、補助情報の一例として、操作対象の操作部位を示す部位画像、または操作対象に対する操作方向を示す方向画像を生成する。
[4-5. Other variants]
As an example of the listener's information, the generation unit 133 may generate auxiliary information based on the image information of the site where the listener is located. For example, the generation unit 133 generates a part image showing the operation part of the operation target or a direction image showing the operation direction with respect to the operation target as an example of the auxiliary information based on the image information of the site where the listener is located.

また、生成部133は、聞き手が所在する現場の画像情報に基づいて、補助情報の一例として、操作対象の所定の領域を拡大した拡大画像を生成してもよい。例えば、生成部133は、操作対象の精密領域を拡大した拡大画像を生成する。 Further, the generation unit 133 may generate an enlarged image in which a predetermined area to be operated is enlarged as an example of auxiliary information based on the image information of the site where the listener is located. For example, the generation unit 133 generates an enlarged image in which the precision area to be operated is enlarged.

〔5.効果〕
上述してきたように、実施形態に係る情報処理装置100は、生成部133と出力制御部134を備える。生成部133は、遠隔コミュニケーションの参加者である聞き手の情報に基づいて、遠隔コミュニケーションの参加者である伝え手から聞き手に対して伝達される操作内容であって、聞き手が操作する操作対象に対する操作内容を補う補助情報を生成する。出力制御部134は、生成部133によって生成された補助情報を聞き手の端末装置10に出力するよう制御する。また、生成部133は、聞き手の情報として、聞き手の属性に関する属性情報、聞き手が所在する現場の音声情報、聞き手が所在する現場の画像情報、または聞き手が操作対象を操作するのに用いられる制御装置の信号情報に基づいて、補助情報を生成する。
[5. effect〕
As described above, the information processing apparatus 100 according to the embodiment includes a generation unit 133 and an output control unit 134. The generation unit 133 is an operation content transmitted from the transmitter who is a participant of the remote communication to the listener based on the information of the listener who is a participant of the remote communication, and is an operation for the operation target operated by the listener. Generate supplementary information to supplement the content. The output control unit 134 controls to output the auxiliary information generated by the generation unit 133 to the terminal device 10 of the listener. Further, as the listener information, the generation unit 133 includes attribute information regarding the attributes of the listener, audio information of the site where the listener is located, image information of the site where the listener is located, or control used for the listener to operate the operation target. Auxiliary information is generated based on the signal information of the device.

これにより、情報処理装置100は、伝え手によって伝達される操作内容に加えて、聞き手に応じた補助情報を提供することができるので、遠隔コミュニケーションでの複雑な操作内容の伝達を助けることができる。したがって、本願発明は、遠隔コミュニケーションにおける複雑な操作内容の伝達を支援可能にすることができる。 As a result, the information processing apparatus 100 can provide auxiliary information according to the listener in addition to the operation content transmitted by the transmitter, so that it is possible to assist the transmission of complicated operation content in remote communication. .. Therefore, the invention of the present application can support the transmission of complicated operation contents in remote communication.

また、生成部133は、補助情報として、操作対象の操作部位を示す部位画像、または操作対象に対する操作方向を示す方向画像を生成する。出力制御部134は、部位画像または方向画像のうち少なくともいずれか1つを聞き手の端末装置10の画面に表示する。 Further, the generation unit 133 generates, as auxiliary information, a part image showing the operation part of the operation target or a direction image showing the operation direction with respect to the operation target. The output control unit 134 displays at least one of a site image and a direction image on the screen of the listener's terminal device 10.

これにより、情報処理装置100は、伝え手によって伝達される操作内容に加えて、操作対象の操作部位を示す部位画像、または操作対象に対する操作方向を示す方向画像を提供することができるので、遠隔コミュニケーションでの複雑な操作内容の伝達を助けることができる。 As a result, the information processing apparatus 100 can provide a part image showing the operation part of the operation target or a direction image showing the operation direction with respect to the operation target, in addition to the operation content transmitted by the transmitter. It can help the communication of complicated operation contents in communication.

また、生成部133は、補助情報として、操作対象の所定の領域を拡大した拡大画像を生成する。出力制御部134は、拡大画像を聞き手の端末装置10の画面に表示する。 In addition, the generation unit 133 generates an enlarged image in which a predetermined area to be operated is enlarged as auxiliary information. The output control unit 134 displays the enlarged image on the screen of the listener's terminal device 10.

これにより、情報処理装置100は、例えば、精密領域を拡大して表示することができるので、遠隔コミュニケーションでの精密領域に関する操作内容の伝達を助けることができる。 As a result, the information processing apparatus 100 can enlarge and display the precision area, for example, and can assist in the transmission of the operation content related to the precision area in remote communication.

また、生成部133は、補助情報として、操作内容を示す文字情報または操作内容に関する用語の意味を説明する文字情報を生成する。出力制御部134は、文字情報を聞き手の端末装置10の画面に表示する。 In addition, the generation unit 133 generates character information indicating the operation content or character information explaining the meaning of terms related to the operation content as auxiliary information. The output control unit 134 displays the character information on the screen of the listener's terminal device 10.

これにより、情報処理装置100は、例えば、難聴である聞き手が伝え手の音声を聞き取りづらい場合であっても、補助情報である文字情報により視覚的に操作内容を知覚することを可能にする。したがって、情報処理装置100は、例えば、難聴である聞き手に対する操作内容の伝達を助けることができる。また、情報処理装置100は、例えば、未経験者である聞き手にとって馴染みのない専門用語が頻繁に登場する場合であっても、補助情報である文字情報により専門用語の意味をその都度確認可能にすることができる。したがって、情報処理装置100は、例えば、未経験者である聞き手が操作内容を理解するのを助けることができる。 Thereby, for example, the information processing apparatus 100 makes it possible to visually perceive the operation content by the character information which is the auxiliary information even when the listener who has deafness has difficulty in hearing the voice of the transmitter. Therefore, the information processing apparatus 100 can help, for example, the transmission of the operation content to the listener who has deafness. Further, the information processing apparatus 100 makes it possible to confirm the meaning of the technical term each time by the character information which is the auxiliary information even when the technical term which is not familiar to the listener who is an inexperienced person frequently appears. be able to. Therefore, the information processing apparatus 100 can help, for example, an inexperienced listener to understand the operation content.

また、生成部133は、補助情報として、文字の大きさが拡大または縮小された文字情報を生成する。出力制御部134は、文字の大きさが拡大または縮小された文字情報を聞き手の端末装置10の画面に表示する。 In addition, the generation unit 133 generates character information in which the size of the character is enlarged or reduced as auxiliary information. The output control unit 134 displays the character information whose character size is enlarged or reduced on the screen of the listener's terminal device 10.

これにより、情報処理装置100は、例えば、文字を大きくすることで、視力の低い聞き手が伝え手の操作内容を視覚的に知覚することを助けることができる。また、情報処理装置100は、例えば、文字を小さくすることで、聞き手の手元や操作対象の邪魔にならないように画面中に伝え手の操作内容を表示することができる。したがって、情報処理装置100は、聞き手が操作内容を視覚的に理解するのを助けることができる。 As a result, the information processing apparatus 100 can help a listener with low visual acuity to visually perceive the operation content of the transmitter, for example, by enlarging the characters. Further, the information processing apparatus 100 can display the operation content of the transmitter on the screen so as not to disturb the listener's hand or the operation target by, for example, reducing the characters. Therefore, the information processing apparatus 100 can help the listener to visually understand the operation content.

また、生成部133は、補助情報として、ひらがな、カタカナ、漢字またはローマ字で表記された文字情報を生成する。出力制御部134は、ひらがな、カタカナ、漢字またはローマ字で表記された文字情報を聞き手の端末装置10の画面に表示する。 In addition, the generation unit 133 generates character information written in hiragana, katakana, kanji, or romaji as auxiliary information. The output control unit 134 displays character information written in hiragana, katakana, kanji, or romaji on the screen of the listener's terminal device 10.

これにより、情報処理装置100は、聞き手に応じた日本語の表示態様によって、聞き手が伝え手の操作内容を理解するのを助けることができる。 Thereby, the information processing apparatus 100 can help the listener to understand the operation content of the transmitter by the display mode of Japanese according to the listener.

また、生成部133は、補助情報として、日本語以外の他の言語に翻訳された文字情報を生成する。出力制御部134は、他の言語に翻訳された文字情報を聞き手の端末装置10の画面に表示する。 In addition, the generation unit 133 generates character information translated into a language other than Japanese as auxiliary information. The output control unit 134 displays the character information translated into another language on the screen of the listener's terminal device 10.

これにより、情報処理装置100は、聞き手に応じた言語によって、聞き手が伝え手の操作内容を理解するのを助けることができる。 Thereby, the information processing apparatus 100 can help the listener to understand the operation content of the transmitter in the language corresponding to the listener.

また、情報処理装置100は、判定部132をさらに備える。判定部132は、聞き手の情報に基づいて、聞き手が操作内容に関する操作に困難をきたしているか否かを判定する。生成部133は、判定部132によって聞き手が操作に困難をきたしていると判定された場合に、補助情報を生成する。 Further, the information processing apparatus 100 further includes a determination unit 132. The determination unit 132 determines whether or not the listener has difficulty in operating the operation content based on the information of the listener. The generation unit 133 generates auxiliary information when the determination unit 132 determines that the listener is having difficulty in operation.

これにより、情報処理装置100は、聞き手が困っているときに補助情報を生成することができるので、聞き手が伝え手の操作内容を理解するのを助けることができる。 As a result, the information processing apparatus 100 can generate auxiliary information when the listener is in trouble, and can help the listener to understand the operation content of the transmitter.

また、判定部132は、聞き手の情報に基づいて、伝え手から聞き手に対して操作内容を伝達するタイミングを判定する。出力制御部134は、判定部132によって判定されたタイミングに関する情報を伝え手の端末装置10に出力するよう制御する。 Further, the determination unit 132 determines the timing at which the operation content is transmitted from the transmitter to the listener based on the information of the listener. The output control unit 134 controls to output the information regarding the timing determined by the determination unit 132 to the terminal device 10 of the transmitter.

これにより、情報処理装置100は、聞き手にとって受け入れやすいタイミングで、伝え手から聞き手に対して操作内容を伝達することができるので、聞き手が伝え手の操作内容を理解するのを助けることができる。 As a result, the information processing apparatus 100 can transmit the operation content from the transmitter to the listener at a timing that is easy for the listener to accept, so that it is possible to help the listener understand the operation content of the transmitter.

また、生成部133は、補助情報として、操作対象に対する見本操作を撮像した見本動画を生成する。出力制御部134は、見本動画を聞き手の端末装置10の画面に表示するよう制御する。 In addition, the generation unit 133 generates a sample moving image of the sample operation for the operation target as auxiliary information. The output control unit 134 controls to display the sample moving image on the screen of the listener's terminal device 10.

これにより、情報処理装置100は、伝え手によって伝達される操作内容に加えて、見本動画を見ることができるので、聞き手が伝え手の操作内容を理解するのを助けることができる。 As a result, the information processing apparatus 100 can see the sample moving image in addition to the operation content transmitted by the transmitter, and can help the listener to understand the operation content of the transmitter.

また、情報処理装置100は、取得部131をさらに備える。取得部131は、聞き手による操作対象に対する操作を撮像した操作動画を取得する。出力制御部134は、操作動画を伝え手の端末装置10の画面に表示するよう制御する。 Further, the information processing apparatus 100 further includes an acquisition unit 131. The acquisition unit 131 acquires an operation moving image that captures an operation on an operation target by the listener. The output control unit 134 controls to display the operation moving image on the screen of the terminal device 10 of the handset.

これにより、情報処理装置100は、伝え手に対して、自身が伝達した操作内容が聞き手にどの程度伝わっているか、フィードバックすることができる。 As a result, the information processing apparatus 100 can give feedback to the transmitter to what extent the operation content transmitted by the information processing apparatus 100 is transmitted to the listener.

また、取得部131は、聞き手の操作に対する伝え手の評価を示す評価情報を取得する。出力制御部134は、評価情報を聞き手の端末装置10に出力するよう制御する。 In addition, the acquisition unit 131 acquires evaluation information indicating the evaluation of the transmitter with respect to the operation of the listener. The output control unit 134 controls to output the evaluation information to the listener's terminal device 10.

これにより、情報処理装置100は、聞き手に対して、どの程度操作内容を正しく理解しているか、伝え手の評価をフィードバックすることができる。 As a result, the information processing apparatus 100 can feed back the evaluation of the transmitter to the listener as to how much the operation content is correctly understood.

〔6.ハードウェア構成〕
また、上述してきた実施形態に係る情報処理装置100は、例えば図10に示すような構成のコンピュータ1000によって実現される。図10は、情報処理装置100の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を備える。
[6. Hardware configuration]
Further, the information processing apparatus 100 according to the above-described embodiment is realized by, for example, a computer 1000 having a configuration as shown in FIG. FIG. 10 is a hardware configuration diagram showing an example of a computer that realizes the functions of the information processing apparatus 100. The computer 1000 includes a CPU 1100, a RAM 1200, a ROM 1300, an HDD 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400, and controls each part. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、所定の通信網を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを所定の通信網を介して他の機器へ送信する。 The HDD 1400 stores a program executed by the CPU 1100, data used by such a program, and the like. The communication interface 1500 receives data from another device via a predetermined communication network and sends the data to the CPU 1100, and transmits the data generated by the CPU 1100 to the other device via the predetermined communication network.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。 The CPU 1100 controls an output device such as a display or a printer, and an input device such as a keyboard or a mouse via the input / output interface 1600. The CPU 1100 acquires data from the input device via the input / output interface 1600. Further, the CPU 1100 outputs the generated data to the output device via the input / output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 The media interface 1700 reads a program or data stored in the recording medium 1800 and provides the program or data to the CPU 1100 via the RAM 1200. The CPU 1100 loads the program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable Disk), a magneto-optical recording medium such as MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. And so on.

例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the information processing apparatus 100 according to the embodiment, the CPU 1100 of the computer 1000 realizes the function of the control unit 130 by executing the program loaded on the RAM 1200. The CPU 1100 of the computer 1000 reads and executes these programs from the recording medium 1800, but as another example, these programs may be acquired from another device via a predetermined communication network.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible to carry out the present invention in other modified forms.

〔7.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[7. others〕
Further, among the processes described in the above-described embodiments and modifications, all or part of the processes described as being automatically performed can be manually performed, or are described as being manually performed. It is also possible to automatically perform all or part of the processed processing by a known method. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the information shown in the figure.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically distributed in any unit according to various loads and usage conditions. Can be integrated and configured.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the above-described embodiments and modifications can be appropriately combined as long as the processing contents do not contradict each other.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、生成部は、生成手段や生成回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the generation unit can be read as a generation means or a generation circuit.

1 情報処理システム
10 端末装置
100 情報処理装置
110 通信部
120 記憶部
130 制御部
131 取得部
132 判定部
133 生成部
134 出力制御部
1 Information processing system 10 Terminal device 100 Information processing device 110 Communication unit 120 Storage unit 130 Control unit 131 Acquisition unit 132 Judgment unit 133 Generation unit 134 Output control unit

Claims (16)

遠隔コミュニケーションの参加者である聞き手の情報に基づいて、前記遠隔コミュニケーションの参加者である伝え手から前記聞き手に対して伝達される操作内容であって、前記聞き手が操作する操作対象に対する操作内容を補う補助情報を生成する生成部と、
前記生成部によって生成された前記補助情報を前記聞き手の端末装置に出力するよう制御する出力制御部と、
を備える情報処理装置。
Based on the information of the listener who is a participant of the remote communication, the operation content transmitted from the transmitter who is the participant of the remote communication to the listener, and the operation content for the operation target operated by the listener. A generator that generates supplementary information,
An output control unit that controls the auxiliary information generated by the generation unit to be output to the listener's terminal device.
Information processing device equipped with.
前記生成部は、
前記聞き手の情報として、前記聞き手の属性に関する属性情報、前記聞き手が所在する現場の音声情報、前記聞き手が所在する現場の画像情報、または前記聞き手が前記操作対象を操作するのに用いられる制御装置の信号情報に基づいて、前記補助情報を生成する、
請求項1に記載の情報処理装置。
The generator is
As the listener information, attribute information regarding the attributes of the listener, audio information at the site where the listener is located, image information at the site where the listener is located, or a control device used by the listener to operate the operation target. Generates the auxiliary information based on the signal information of
The information processing apparatus according to claim 1.
前記生成部は、
前記補助情報として、前記操作対象の操作部位を示す部位画像、または前記操作対象に対する操作方向を示す方向画像を生成し、
前記出力制御部は、
前記部位画像または前記方向画像のうち少なくともいずれか1つを前記聞き手の端末装置の画面に表示する、
請求項1または2に記載の情報処理装置。
The generator is
As the auxiliary information, a part image showing the operation part of the operation target or a direction image showing the operation direction with respect to the operation target is generated.
The output control unit
At least one of the site image and the direction image is displayed on the screen of the listener's terminal device.
The information processing apparatus according to claim 1 or 2.
前記生成部は、
前記補助情報として、前記操作対象の所定の領域を拡大した拡大画像を生成し、
前記出力制御部は、
前記拡大画像を前記聞き手の端末装置の画面に表示する、
請求項1~3のいずれか1項に記載の情報処理装置。
The generator is
As the auxiliary information, an enlarged image in which a predetermined area of the operation target is enlarged is generated.
The output control unit
Displaying the enlarged image on the screen of the listener's terminal device,
The information processing apparatus according to any one of claims 1 to 3.
前記生成部は、
前記補助情報として、前記操作内容を示す文字情報または前記操作内容に関する用語の意味を説明する文字情報を生成し、
前記出力制御部は、
前記文字情報を前記聞き手の端末装置の画面に表示する、
請求項1~4のいずれか1項に記載の情報処理装置。
The generator is
As the auxiliary information, character information indicating the operation content or character information explaining the meaning of terms related to the operation content is generated.
The output control unit
Displaying the character information on the screen of the listener's terminal device,
The information processing apparatus according to any one of claims 1 to 4.
前記生成部は、
前記補助情報として、文字の大きさが拡大または縮小された前記文字情報を生成する、
前記出力制御部は、
前記文字の大きさが拡大または縮小された前記文字情報を前記聞き手の端末装置の画面に表示する、
請求項5に記載の情報処理装置。
The generator is
As the auxiliary information, the character information in which the size of the character is enlarged or reduced is generated.
The output control unit
The character information in which the size of the character is enlarged or reduced is displayed on the screen of the terminal device of the listener.
The information processing apparatus according to claim 5.
前記生成部は、
前記補助情報として、ひらがな、カタカナ、漢字またはローマ字で表記された前記文字情報を生成し、
前記出力制御部は、
前記ひらがな、前記カタカナ、前記漢字または前記ローマ字で表記された前記文字情報を前記聞き手の端末装置の画面に表示する、
請求項5または6に記載の情報処理装置。
The generator is
As the auxiliary information, the character information written in hiragana, katakana, kanji or romaji is generated.
The output control unit
The character information expressed in the hiragana, the katakana, the kanji, or the romaji is displayed on the screen of the terminal device of the listener.
The information processing apparatus according to claim 5 or 6.
前記生成部は、
前記補助情報として、日本語以外の他の言語に翻訳された前記文字情報を生成し、
前記出力制御部は、
前記他の言語に翻訳された前記文字情報を前記聞き手の端末装置の画面に表示する、
請求項5~7のいずれか1項に記載の情報処理装置。
The generator is
As the auxiliary information, the character information translated into a language other than Japanese is generated.
The output control unit
The character information translated into the other language is displayed on the screen of the terminal device of the listener.
The information processing apparatus according to any one of claims 5 to 7.
前記聞き手の情報に基づいて、前記聞き手が前記操作内容に関する操作に困難をきたしているか否かを判定する判定部をさらに備え、
前記生成部は、
前記判定部によって前記聞き手が前記操作に困難をきたしていると判定された場合に、前記補助情報を生成する、
請求項1~8のいずれか1項に記載の情報処理装置。
Further, a determination unit for determining whether or not the listener has difficulty in the operation related to the operation content based on the listener's information is provided.
The generator is
When the determination unit determines that the listener is having difficulty in the operation, the auxiliary information is generated.
The information processing apparatus according to any one of claims 1 to 8.
前記聞き手の情報に基づいて、前記伝え手から前記聞き手に対して前記操作内容を伝達するタイミングを判定する判定部をさらに備え、
前記出力制御部は、
前記判定部によって判定されたタイミングに関する情報を前記伝え手の端末装置に出力するよう制御する、
請求項1~9のいずれか1項に記載の情報処理装置。
Further, a determination unit for determining the timing at which the operation content is transmitted from the transmitter to the listener based on the listener's information is provided.
The output control unit
Controlled to output information regarding the timing determined by the determination unit to the terminal device of the transmitter.
The information processing apparatus according to any one of claims 1 to 9.
前記生成部は、
前記補助情報として、前記操作対象に対する見本操作を撮像した見本動画を生成し、
前記出力制御部は、
前記見本動画を前記聞き手の端末装置の画面に表示するよう制御する、
請求項1~10のいずれか1項に記載の情報処理装置。
The generator is
As the auxiliary information, a sample moving image of the sample operation for the operation target is generated.
The output control unit
Controlling the display of the sample moving image on the screen of the listener's terminal device,
The information processing apparatus according to any one of claims 1 to 10.
前記聞き手による前記操作対象に対する操作を撮像した操作動画を取得する取得部をさらに備え、
前記出力制御部は、
前記操作動画を前記伝え手の端末装置の画面に表示するよう制御する、
請求項1~11のいずれか1項に記載の情報処理装置。
Further provided with an acquisition unit for acquiring an operation moving image of an operation of the operation target by the listener.
The output control unit
Controlling the operation video to be displayed on the screen of the terminal device of the transmitter,
The information processing apparatus according to any one of claims 1 to 11.
前記取得部は、
前記聞き手の操作に対する前記伝え手の評価を示す評価情報を取得し、
前記出力制御部は、
前記評価情報を前記聞き手の端末装置に出力するよう制御する、
請求項12に記載の情報処理装置。
The acquisition unit
Obtaining evaluation information indicating the evaluation of the transmitter with respect to the operation of the listener,
The output control unit
Controlled to output the evaluation information to the listener's terminal device.
The information processing apparatus according to claim 12.
コンピュータが実行する情報処理方法であって、
遠隔コミュニケーションの参加者である聞き手の情報に基づいて、前記遠隔コミュニケーションの参加者である伝え手から前記聞き手に対して伝達される操作内容であって、前記聞き手が操作する操作対象に対する操作内容を補う補助情報を生成する生成工程と、
前記生成工程によって生成された前記補助情報を前記聞き手の端末装置に出力するよう制御する出力制御工程と、
を含む情報処理方法。
It is an information processing method executed by a computer.
Based on the information of the listener who is a participant of the remote communication, the operation content transmitted from the transmitter who is the participant of the remote communication to the listener, and the operation content for the operation target operated by the listener. The generation process to generate supplementary information and
An output control step that controls the auxiliary information generated by the generation step to be output to the listener's terminal device, and
Information processing methods including.
遠隔コミュニケーションの参加者である聞き手の情報に基づいて、前記遠隔コミュニケーションの参加者である伝え手から前記聞き手に対して伝達される操作内容であって、前記聞き手が操作する操作対象に対する操作内容を補う補助情報を生成する生成手順と、
前記生成手順によって生成された前記補助情報を前記聞き手の端末装置に出力するよう制御する出力制御手順と、
をコンピュータに実行させることを特徴とする情報処理プログラム。
Based on the information of the listener who is a participant of the remote communication, the operation content transmitted from the transmitter who is the participant of the remote communication to the listener, and the operation content for the operation target operated by the listener. The generation procedure to generate supplementary information and
An output control procedure for controlling the auxiliary information generated by the generation procedure to be output to the listener's terminal device, and an output control procedure.
An information processing program characterized by having a computer execute.
情報処理装置と、遠隔コミュニケーションの参加者の端末装置とを含む情報処理システムであって、
前記情報処理装置は、
遠隔コミュニケーションの参加者である聞き手の情報に基づいて、前記遠隔コミュニケーションの参加者である伝え手から前記聞き手に対して伝達される操作内容であって、前記聞き手が操作する操作対象に対する操作内容を補う補助情報を生成する生成部と、
前記生成部によって生成された前記補助情報を前記聞き手の端末装置に出力するよう制御する出力制御部と、
を備え、
前記参加者である聞き手の端末装置は、
前記生成部によって生成された前記補助情報を出力する、
情報処理システム。
An information processing system that includes an information processing device and a terminal device of a participant in remote communication.
The information processing device is
Based on the information of the listener who is a participant of the remote communication, the operation content transmitted from the transmitter who is the participant of the remote communication to the listener, and the operation content for the operation target operated by the listener. A generator that generates supplementary information,
An output control unit that controls the auxiliary information generated by the generation unit to be output to the listener's terminal device.
Equipped with
The terminal device of the listener who is the participant
Outputs the auxiliary information generated by the generator.
Information processing system.
JP2020163922A 2020-09-29 2020-09-29 Information processing device, information processing method, information processing program, and information processing system Active JP7152454B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020163922A JP7152454B2 (en) 2020-09-29 2020-09-29 Information processing device, information processing method, information processing program, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020163922A JP7152454B2 (en) 2020-09-29 2020-09-29 Information processing device, information processing method, information processing program, and information processing system

Publications (2)

Publication Number Publication Date
JP2022056109A true JP2022056109A (en) 2022-04-08
JP7152454B2 JP7152454B2 (en) 2022-10-12

Family

ID=80999051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020163922A Active JP7152454B2 (en) 2020-09-29 2020-09-29 Information processing device, information processing method, information processing program, and information processing system

Country Status (1)

Country Link
JP (1) JP7152454B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11212946A (en) * 1998-01-22 1999-08-06 Tsubasa System Kk Remote guidance method
US20130325970A1 (en) * 2012-05-30 2013-12-05 Palo Alto Research Center Incorporated Collaborative video application for remote servicing

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11212946A (en) * 1998-01-22 1999-08-06 Tsubasa System Kk Remote guidance method
US20130325970A1 (en) * 2012-05-30 2013-12-05 Palo Alto Research Center Incorporated Collaborative video application for remote servicing

Also Published As

Publication number Publication date
JP7152454B2 (en) 2022-10-12

Similar Documents

Publication Publication Date Title
US11114091B2 (en) Method and system for processing audio communications over a network
EP3190512B1 (en) Display device and operating method therefor
US10741172B2 (en) Conference system, conference system control method, and program
US11330342B2 (en) Method and apparatus for generating caption
JP2003345379A6 (en) Audio-video conversion apparatus and method, audio-video conversion program
CN112236817A (en) Low latency neighbor group translation
WO2001045088A1 (en) Electronic translator for assisting communications
JP2003345379A (en) Audio video conversion apparatus and method, and audio video conversion program
KR102390187B1 (en) Method and system for providing translation for conference assistance
US20180286388A1 (en) Conference support system, conference support method, program for conference support device, and program for terminal
US20200327893A1 (en) Information processing device and information processing method
US20180288109A1 (en) Conference support system, conference support method, program for conference support apparatus, and program for terminal
US20180288110A1 (en) Conference support system, conference support method, program for conference support device, and program for terminal
JP7194507B2 (en) CONFERENCE SYSTEM, CONFERENCE SYSTEM CONTROL METHOD AND PROGRAM
EP4322090A1 (en) Information processing device and information processing method
JP2022056109A (en) Information processing device, information processing method, information processing program, and information processing system
US9697851B2 (en) Note-taking assistance system, information delivery device, terminal, note-taking assistance method, and computer-readable recording medium
JP2004334207A (en) Assistance for dynamic pronunciation for training of japanese and chinese speech recognition system
US20170351651A1 (en) Smart bookmark device and bookmark synchronization system
Hughes et al. Voice Interaction for Accessible Immersive Video Players.
JP2020119043A (en) Voice translation system and voice translation method
US20240347045A1 (en) Information processing device, information processing method, and program
JP2013168158A (en) Exemplar descriptions of homophones to assist visually impaired users
JP7471979B2 (en) Meeting Support System
KR20230021297A (en) An apparatus and method for providing conversational english lecturing contents

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220929

R150 Certificate of patent or registration of utility model

Ref document number: 7152454

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150