JP6604256B2 - Information processing terminal, information processing method, and program - Google Patents

Information processing terminal, information processing method, and program Download PDF

Info

Publication number
JP6604256B2
JP6604256B2 JP2016077322A JP2016077322A JP6604256B2 JP 6604256 B2 JP6604256 B2 JP 6604256B2 JP 2016077322 A JP2016077322 A JP 2016077322A JP 2016077322 A JP2016077322 A JP 2016077322A JP 6604256 B2 JP6604256 B2 JP 6604256B2
Authority
JP
Japan
Prior art keywords
image data
information processing
image
unit
estimated value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016077322A
Other languages
Japanese (ja)
Other versions
JP2017188820A (en
Inventor
一樹 松井
雅彦 村上
健一 堀尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016077322A priority Critical patent/JP6604256B2/en
Publication of JP2017188820A publication Critical patent/JP2017188820A/en
Application granted granted Critical
Publication of JP6604256B2 publication Critical patent/JP6604256B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理端末、情報処理方法、及びプログラムに関する。   The present invention relates to an information processing terminal, an information processing method, and a program.

スマートフォン又はタブレット等のスマート端末が普及し、業務において活用がされるようになっている。スマート端末には、通常、カメラ、マイク、スピーカ等が搭載されている。そこで、スマート端末が撮影した作業現場の画像を遠隔のオフィス等におけるPC(Personal Computer)等と共有することが考えられる。そうすることで、オフィス等に所在する熟練者は、複数の作業現場のそれぞれにおける作業者の作業を遠隔的に支援することができる。その結果、数少ない熟練者の知識や経験等を、複数の作業現場に効率的に適用することができる。   Smart terminals such as smartphones and tablets have become widespread and are used in business. A smart terminal usually includes a camera, a microphone, a speaker, and the like. In view of this, it is conceivable to share an image of a work site taken by a smart terminal with a PC (Personal Computer) in a remote office or the like. By doing so, a skilled person located in an office or the like can remotely support the work of the worker at each of a plurality of work sites. As a result, the knowledge and experience of a few skilled workers can be efficiently applied to a plurality of work sites.

従来、遠隔地間において画像や音声を共有するシステムとして、テレビ会議システムが知られている。斯かるテレビ会議システムの仕組みを、作業者が利用するスマート端末と、熟練者が利用するPC(Personal Computer)等に利用することで、熟練者による遠隔支援のためのシステムを容易に構築可能であると考えられる。   Conventionally, a video conference system is known as a system for sharing images and sounds between remote locations. By using such a video conference system mechanism for smart terminals used by workers and PCs (Personal Computers) used by skilled workers, it is possible to easily construct a system for remote support by skilled workers. It is believed that there is.

特開2006−140747号公報JP 2006-140747 A 特開2014−045438号公報JP 2014-045438 A 特開平09−00922号公報JP 09-00922 A

しかしながら、一般的に、テレビ会議システムでは、通信相手となる端末同士が同様の機種であり、また、同様のネットワーク環境において利用されることが想定されている。したがって、このようなテレビ会議システムは、作業現場の作業者が利用するスマート端末と、オフィス等において熟練者が利用するPCとの間でのコラボレーションについては十分に考慮されていない。   However, in general, in a video conference system, it is assumed that terminals serving as communication partners are of the same model and are used in a similar network environment. Therefore, such a video conference system does not sufficiently consider collaboration between a smart terminal used by a worker at a work site and a PC used by a skilled worker in an office or the like.

具体的には、作業現場におけるスマート端末は、3G、LTE(Long Term Evolution)、又はWi−Fi(登録商標)等の無線通信を使用することが多い。無線通信は、電波状況や時間帯によって利用可能な帯域の変動が大きく、有線通信に比べて遅延も大きい。その結果、音声の音切れが多く発生して、相手側で音声が聞き取りにくいという現象が発生する可能性が有る。   Specifically, smart terminals at work sites often use wireless communications such as 3G, LTE (Long Term Evolution), or Wi-Fi (registered trademark). Wireless communication has a large variation in available bandwidth depending on radio wave conditions and time zones, and has a larger delay than wired communication. As a result, there is a possibility that a lot of sound breaks out and that the other party is hard to hear the sound.

特に、画像を送りながら音声で対話が行われている状況では、音声の品質が悪いと熟練者による現場の状況の把握が困難となり、作業効率が悪化してしまう。   In particular, in a situation in which dialogue is performed by voice while sending an image, if the voice quality is poor, it becomes difficult for a skilled person to grasp the situation in the field, and work efficiency deteriorates.

本発明は、画像と共に送信される音声の品質の低下を抑制することを目的とする。   An object of this invention is to suppress the fall of the quality of the audio | voice transmitted with an image.

一つの態様では、情報処理端末は、画像データを入力する画像入力部と、音声データを入力する音声入力部と、前記画像データを符号化する符号化部と、符号化された前記画像データと前記音声データとをネットワークを介して接続される情報処理装置に送信する送信部と、前記ネットワークにおいて前記画像データ及び前記音声データの送信に利用可能な帯域の推定値を取得する推定部とを有し、前記符号化部は、前記推定値より小さい帯域に収まるように前記画像データを符号化する。   In one aspect, the information processing terminal includes an image input unit that inputs image data, an audio input unit that inputs audio data, an encoding unit that encodes the image data, and the encoded image data A transmission unit that transmits the audio data to an information processing apparatus connected via a network; and an estimation unit that acquires an estimated value of a bandwidth that can be used for transmitting the image data and the audio data in the network. Then, the encoding unit encodes the image data so as to be within a band smaller than the estimated value.

一側面として、画像と共に送信される音声の品質の低下を抑制することができる。   As one aspect, it is possible to suppress a decrease in quality of sound transmitted together with an image.

本発明の実施の形態における作業支援システムの構成例を示す図である。It is a figure which shows the structural example of the work assistance system in embodiment of this invention. 本発明の実施の形態における作業者端末のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the worker terminal in embodiment of this invention. 本発明の実施の形態における各装置の機能構成例を示す図である。It is a figure which shows the function structural example of each apparatus in embodiment of this invention. 作業者の移動状態を説明するための図である。It is a figure for demonstrating the movement state of an operator. 本実施の形態における画像データの転送の制御方法を説明するための図である。It is a figure for demonstrating the transfer control method of the image data in this Embodiment. 作業者端末が実行する処理手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the process sequence which an operator terminal performs. 支援者端末が実行する処理手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the process sequence which a supporter terminal performs. 利用可能帯域の推定処理の一例を説明するための図である。It is a figure for demonstrating an example of the estimation process of an available band.

以下、図面に基づいて本発明の実施の形態を説明する。図1は、本発明の実施の形態における作業支援システムの構成例を示す図である。図1において、作業支援システム1は、作業者端末10及び支援者端末20等を含む。作業者端末10及び支援者端末20は、IPネットワークN1等を介して通信可能に接続される。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration example of a work support system according to an embodiment of the present invention. In FIG. 1, the work support system 1 includes a worker terminal 10, a supporter terminal 20, and the like. The worker terminal 10 and the supporter terminal 20 are communicably connected via the IP network N1 or the like.

作業者端末10は、作業者によって所持及び利用される端末である。例えば、スマートフォン又はタブレット端末等のスマート端末が、作業者端末10として利用されてもよい。または、眼鏡型の端末や、作業者の頭部に固定されて作業者の視線の方向を撮影可能なウェアラブルな端末等が作業者端末10として利用されてもよい。   The worker terminal 10 is a terminal possessed and used by the worker. For example, a smart terminal such as a smartphone or a tablet terminal may be used as the worker terminal 10. Alternatively, a glasses-type terminal, a wearable terminal that is fixed to the worker's head and can photograph the direction of the operator's line of sight, and the like may be used as the worker terminal 10.

作業者とは、作業現場において作業を行う者をいう。作業者端末10は、作業の対象物等に関する画像(動画像)や、作業者の音声等を入力し、当該画像及び音声を、ネットワークN1を介して支援者端末20に送信する。作業者端末10は、また、支援者端末20から送信される音声を出力する。なお、作業者端末10は、3G、LTE(Long Term Evolution)、又はWi−Fi(登録商標)等による無線通信網N2を介してIPネットワークN1に接続される。   An operator means a person who performs work at a work site. The worker terminal 10 inputs an image (moving image) related to a work target or the like, a worker's voice, and the like, and transmits the image and sound to the supporter terminal 20 via the network N1. The worker terminal 10 also outputs a voice transmitted from the supporter terminal 20. The worker terminal 10 is connected to the IP network N1 via a wireless communication network N2 such as 3G, LTE (Long Term Evolution), or Wi-Fi (registered trademark).

支援者端末20は、支援者が利用する端末である。支援者とは、作業者端末10から送信される画像や音声を視聴しつつ、作業者による作業を遠隔から支援する者をいう。支援者端末20は、例えば、PC(Personal Computer)、タブレット端末、又はスマートフォン等である。   The supporter terminal 20 is a terminal used by the supporter. The supporter refers to a person who remotely supports the work performed by the worker while viewing an image or sound transmitted from the worker terminal 10. The supporter terminal 20 is, for example, a PC (Personal Computer), a tablet terminal, or a smartphone.

なお、作業支援システム1には、複数の作業者端末10と複数の支援者端末20とが含まれてもよい。   Note that the work support system 1 may include a plurality of worker terminals 10 and a plurality of supporter terminals 20.

図2は、本発明の実施の形態における作業者端末のハードウェア構成例を示す図である。図2の作業者端末10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU104、インタフェース装置105、表示装置106、入力装置107、カメラ108、マイク109、スピーカ110、及び加速度センサ111を有する。   FIG. 2 is a diagram illustrating a hardware configuration example of the worker terminal according to the embodiment of the present invention. The worker terminal 10 in FIG. 2 includes a drive device 100, an auxiliary storage device 102, a memory device 103, a CPU 104, an interface device 105, a display device 106, an input device 107, a camera 108, and a microphone, which are mutually connected by a bus B. 109, a speaker 110, and an acceleration sensor 111.

作業者端末10での処理を実現するプログラムは、記録媒体101によって提供される。プログラムを記録した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。   A program that realizes processing in the worker terminal 10 is provided by the recording medium 101. When the recording medium 101 on which the program is recorded is set in the drive device 100, the program is installed from the recording medium 101 to the auxiliary storage device 102 via the drive device 100. However, the program need not be installed from the recording medium 101 and may be downloaded from another computer via a network. The auxiliary storage device 102 stores the installed program and also stores necessary files and data.

メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従って作業者端末10に係る機能を実現する。インタフェース装置105は、ネットワークに接続するためのインタフェースとして用いられる。表示装置106はプログラムによるGUI(Graphical User Interface)等を表示する。入力装置107は、例えば、タッチパネル又はボタン等であり、様々な操作指示を入力させるために用いられる。   The memory device 103 reads the program from the auxiliary storage device 102 and stores it when there is an instruction to start the program. The CPU 104 realizes functions related to the worker terminal 10 in accordance with a program stored in the memory device 103. The interface device 105 is used as an interface for connecting to a network. The display device 106 displays a GUI (Graphical User Interface) or the like by a program. The input device 107 is, for example, a touch panel or a button, and is used for inputting various operation instructions.

カメラ108は、例えば、デジタルビデオカメラであり、作業の対象物等の画像を撮影(入力)する。マイク109は、作業者の声等の音声を入力する。スピーカ110は、支援者端末20から送信される音声信号に基づいて音声を出力する。加速度センサ111は、作業者端末10の移動等に応じて発生する振動を検出する。   The camera 108 is a digital video camera, for example, and captures (inputs) an image of a work object or the like. The microphone 109 inputs a voice such as a worker's voice. The speaker 110 outputs sound based on the sound signal transmitted from the supporter terminal 20. The acceleration sensor 111 detects vibration that occurs in response to the movement of the worker terminal 10 or the like.

なお、支援者端末20も、図2に示されるようなハードウェア構成を有していてもよい。但し、支援者端末20は、カメラ108及び加速度センサ111を有していなくてもよい。   The supporter terminal 20 may also have a hardware configuration as shown in FIG. However, the supporter terminal 20 may not include the camera 108 and the acceleration sensor 111.

図3は、本発明の実施の形態における各装置の機能構成例を示す図である。図3において、作業者端末10は、入出力制御部121、音声圧縮部122、音声送受信部123、音声再生部124、画像表示部125、表示画像取得部126、画像差分検出部127、画像圧縮部128、画像送信制御部129、無線通信制御部130、遅延検出部131、帯域推定部132、画質調整部133、及び移動状態判定部134等を有する。これら各部は、例えば、作業者端末10にインストールされた1以上のプログラムが、CPU104に実行させる処理により実現される。   FIG. 3 is a diagram illustrating a functional configuration example of each device according to the embodiment of the present invention. In FIG. 3, the worker terminal 10 includes an input / output control unit 121, an audio compression unit 122, an audio transmission / reception unit 123, an audio reproduction unit 124, an image display unit 125, a display image acquisition unit 126, an image difference detection unit 127, an image compression. 128, image transmission control unit 129, wireless communication control unit 130, delay detection unit 131, band estimation unit 132, image quality adjustment unit 133, movement state determination unit 134, and the like. Each of these units is realized, for example, by processing that the CPU 104 causes one or more programs installed in the worker terminal 10 to execute.

入出力制御部121は、カメラ108からの画像データ(映像データ)の入力の制御、マイク109からの音声データの入力の制御、及び音声データに基づくスピーカ110からの音声の出力の制御等を行う。   The input / output control unit 121 performs control of input of image data (video data) from the camera 108, control of input of sound data from the microphone 109, control of output of sound from the speaker 110 based on the sound data, and the like. .

音声圧縮部122は、入出力制御部121によってマイク109から入力される音声データを圧縮(符号化)する。音声送受信部123は、音声圧縮部122によって符号化される音声データについて支援者端末20への送信制御を行ったり、支援者端末20から受信される音声データについて受信制御を行ったりする。音声再生部124は、音声送受信部123によって受信される音声データを再生(例えば、デコード)する。   The audio compression unit 122 compresses (encodes) audio data input from the microphone 109 by the input / output control unit 121. The voice transmission / reception unit 123 performs transmission control on the voice data encoded by the voice compression unit 122 to the supporter terminal 20 or performs reception control on the voice data received from the supporter terminal 20. The audio reproduction unit 124 reproduces (for example, decodes) the audio data received by the audio transmission / reception unit 123.

画像表示部125は、カメラ108によって撮影され、入出力制御部121によって入力される画像データを表示装置106に表示する。   The image display unit 125 displays image data captured by the camera 108 and input by the input / output control unit 121 on the display device 106.

表示画像取得部126は、画面キャプチャにより、表示装置106に表示されている画像データを取得する。   The display image acquisition unit 126 acquires image data displayed on the display device 106 by screen capture.

画像差分検出部127は、表示画像取得部126によって取得される画像データについて、既に(例えば、前回の送信時に)支援者端末20へ送信した画像データとの差分の範囲(以下、「差分画像」という。)を検出する。すなわち、公知の画面共有技術において利用されている差分画像のみを転送する技術が、本実施の形態においても利用される。当該技術の利用は必須の事項ではない。   The image difference detection unit 127 includes a range of differences between the image data acquired by the display image acquisition unit 126 and the image data that has already been transmitted to the supporter terminal 20 (for example, at the time of the previous transmission) (hereinafter, “difference image”). ) Is detected. That is, a technique for transferring only the difference image used in the known screen sharing technique is also used in the present embodiment. The use of this technology is not essential.

画像圧縮部128は、差分画像を符号化(圧縮)する。画像送信制御部129は、符号化された差分画像について、支援者端末20への送信を制御する。   The image compression unit 128 encodes (compresses) the difference image. The image transmission control unit 129 controls transmission of the encoded difference image to the supporter terminal 20.

無線通信制御部130は、音声データ及び画像データに関する無線通信を制御する。   The wireless communication control unit 130 controls wireless communication regarding audio data and image data.

遅延検出部131は、作業者端末10と支援者端末20との通信の遅延の発生を検出する。本実施の形態では、音声送受信部123が有する音声データの受信バッファを参照することで当該遅延の発生が検出される。例えば、受信予定の音声データの全てが受信されていない状態において受信バッファが空になった場合、遅延検出部131は、遅延の発生を検出する。受信予定の音声データのデータサイズは、例えば、当該音声データのヘッダを参照することで特定可能である。但し、他の方法によって通信の遅延が検出されてもよい。   The delay detection unit 131 detects the occurrence of a communication delay between the worker terminal 10 and the supporter terminal 20. In the present embodiment, the occurrence of the delay is detected by referring to the audio data reception buffer included in the audio transmission / reception unit 123. For example, when the reception buffer becomes empty in a state where all the audio data scheduled to be received has not been received, the delay detection unit 131 detects the occurrence of a delay. The data size of the audio data scheduled to be received can be specified by referring to the header of the audio data, for example. However, the communication delay may be detected by other methods.

帯域推定部132は、支援者端末20との間の通信において、実際に利用可能な帯域を推定する。   The band estimation unit 132 estimates a band that can actually be used in communication with the supporter terminal 20.

画質調整部133は、支援者端末20へ送信する差分画像の画質を調整する。本実施の形態において、「画質」にはフレームレート(FPS)は含まれない。具体的には、「画質」は、フレームごとの画質をいい、符号化によって変化する属性である。   The image quality adjustment unit 133 adjusts the image quality of the difference image transmitted to the supporter terminal 20. In the present embodiment, the “image quality” does not include the frame rate (FPS). Specifically, “image quality” refers to the image quality for each frame, and is an attribute that varies depending on encoding.

移動状態判定部134は、加速度センサ111によって検出される作業者端末10の振動に基づいて、作業者の移動状態を判定する。例えば、移動ベクトル及び移動速度が移動状態を判定するためのパラメータとして算出される。移動状態判定部134は、これらのパラメータが所定の条件を満たすか否かに基づいて、作業者が作業対象を撮影中であるか否かを判定する。移動状態の詳細については後述される。なお、作業者端末10は、作業者と共に移動する。したがって、作業者の移動状態は、作業者端末10の移動状態と等価である。   The movement state determination unit 134 determines the movement state of the worker based on the vibration of the worker terminal 10 detected by the acceleration sensor 111. For example, the movement vector and the movement speed are calculated as parameters for determining the movement state. The movement state determination unit 134 determines whether or not the operator is photographing the work target based on whether or not these parameters satisfy a predetermined condition. Details of the movement state will be described later. The worker terminal 10 moves with the worker. Therefore, the movement state of the worker is equivalent to the movement state of the worker terminal 10.

一方、支援者端末20は、入出力制御部21、通信制御部22、音声送受信部23、差分画像受信部24、及び画像表示部25等を有する。これら各部は、支援者端末20にインストールされた1以上のプログラムが、支援者端末20のCPUに実行させる処理により実現される。   On the other hand, the supporter terminal 20 includes an input / output control unit 21, a communication control unit 22, a voice transmission / reception unit 23, a differential image reception unit 24, an image display unit 25, and the like. Each of these units is realized by processing that one or more programs installed in the supporter terminal 20 cause the CPU of the supporter terminal 20 to execute.

入出力制御部21は、支援者端末20に接続されたマイクからの音声データの入力や、支援者端末20に接続されたスピーカへの音声データの出力等を制御する。   The input / output control unit 21 controls input of voice data from a microphone connected to the supporter terminal 20, output of voice data to a speaker connected to the supporter terminal 20, and the like.

通信制御部22は、作業者端末10との通信を制御する。   The communication control unit 22 controls communication with the worker terminal 10.

音声送受信部23は、入出力制御部21によって入力される音声データの作業者端末10への送信や、作業者端末10から送信される音声データの受信等を制御する。   The voice transmission / reception unit 23 controls transmission of voice data input by the input / output control unit 21 to the worker terminal 10, reception of voice data transmitted from the worker terminal 10, and the like.

差分画像受信部24は、作業者端末10から送信される画像データ(差分画像)の受信等を制御する。画像表示部25は、作業者端末10から送信される画像データの表示を制御する。   The difference image receiving unit 24 controls reception of image data (difference image) transmitted from the worker terminal 10. The image display unit 25 controls display of image data transmitted from the worker terminal 10.

続いて、作業者端末10の移動状態について説明する。図4は、作業者の移動状態を説明するための図である。図4には、作業者の移動状態が、状態A、状態B、及び状態Cに分類されて示されている。   Next, the movement state of the worker terminal 10 will be described. FIG. 4 is a diagram for explaining the movement state of the worker. In FIG. 4, the movement state of the worker is classified into a state A, a state B, and a state C.

状態Aは、作業者が点検対象の設備へ移動中の状態である。この場合、作業者端末10の加速度センサ111によって検出される振動は、手振れ等による小刻みなものであり、平均移動ベクトルは小さくなる傾向に有る。   State A is a state in which the operator is moving to the equipment to be inspected. In this case, the vibration detected by the acceleration sensor 111 of the worker terminal 10 is small due to hand shake or the like, and the average movement vector tends to be small.

状態Bは、作業者が点検対象の設備へ到着し、点検箇所を探している状態である。この場合、作業者の視線方向の変化に応じた振動が加速度センサ111によって検出される。したがって、平均移動ベクトルは中程度の値となる傾向に有る。   State B is a state in which the worker has arrived at the facility to be inspected and is looking for an inspection location. In this case, the acceleration sensor 111 detects vibration according to a change in the visual line direction of the worker. Therefore, the average movement vector tends to be a medium value.

なお、状態Bは、特に作業者端末10がウェアラブルな端末である場合に顕著に現れる状態である。   The state B is a state that appears prominently when the worker terminal 10 is a wearable terminal.

状態Cは、作業者が点検箇所を撮影して、支援者による支援を仰いでいる状態である。作業者端末10のカメラ108によって撮影可能な範囲は小さいため、撮影可能な範囲に対して広範囲である点検箇所の全体を撮影するために、作業者は、作業者端末10を平行移動させる必要が有る。そのため、状態Cにおいて、平均移動ベクトルは大きくなる傾向に有る。   State C is a state in which the operator takes an image of the inspection location and asks for assistance from the supporter. Since the range that can be photographed by the camera 108 of the worker terminal 10 is small, the worker needs to move the worker terminal 10 in parallel in order to photograph the entire inspection location that is wide with respect to the photographable range. Yes. Therefore, in the state C, the average movement vector tends to increase.

上記より明らかなように、作業者と支援者との間で対話が行われるのは、主に状態Cにおいてである。したがって、本実施の形態では、状態Cにおいて、作業者と支援者との間のコミュニケーションが円滑化されるようにするために、以下のような方針で制御が行われる。
(1)通信の遅延が検出されたら、画像データの転送量を低下させ、できるだけ音声データの帯域を確保する。
(2)画像データの転送量の低下は、フレームレートの低下ではなく、画質の低下によって実現する。
(3)但し、状態C以外の場合は、フレームレートの低下によって、画像データの転送量を低下させる。
As is apparent from the above, the dialogue between the worker and the supporter is mainly performed in the state C. Therefore, in the present embodiment, in the state C, in order to facilitate communication between the worker and the supporter, control is performed according to the following policy.
(1) When a communication delay is detected, the transfer amount of image data is reduced, and a bandwidth of audio data is secured as much as possible.
(2) A reduction in the transfer amount of image data is realized not by a reduction in frame rate but by a reduction in image quality.
(3) However, in the case other than the state C, the transfer amount of the image data is reduced by the reduction of the frame rate.

上記において、(1)は、作業者と支援者とのコミュニケーションにおいて、画像(映像)よりも音声の方が重要であるという経験的事実に基づく。すなわち、音声がとぎれてしまうと、相手の意思を把握することができず対話が困難になってしまうが、画質の低下によって対話が困難になる可能性が低いからである。すなわち、対話によって、画質の低下を補うことが可能であるからである。また、画質の低下が一時的なものであれば、コミュニケーションに対する影響は小さいからである。   In the above, (1) is based on the empirical fact that sound is more important than image (video) in communication between the worker and the supporter. That is, if the voice is interrupted, the intention of the other party cannot be grasped and the conversation becomes difficult, but the possibility that the conversation becomes difficult due to the deterioration of the image quality is low. In other words, it is possible to compensate for the deterioration in image quality through dialogue. Further, if the image quality is temporarily lowered, the influence on communication is small.

(2)は、ぼやけた映像よりも不自然な動きの映像の方が、支援に対する悪影響が大きいという経験的事実に基づく。すなわち、画像データの転送量を低下させるため、フレームレートを低下させると、再生される映像は、不自然な動きとなる。一方、画質を低下させると、再生される映像はぼやけたものとなるが、画像の動きは滑らかである。   (2) is based on an empirical fact that an unnatural motion image has a greater negative effect on support than a blurred image. In other words, if the frame rate is lowered in order to reduce the transfer amount of image data, the reproduced video becomes unnatural. On the other hand, when the image quality is lowered, the reproduced video is blurred, but the movement of the image is smooth.

(3)は、状態C以外では、支援者とのコミュニケーションの重要性は低く、フレームレートを低下させた方が、画像データの転送量の削減効果や、作業者端末10のバッテリの消費量の削減効果が大きいからである。   In (3), the communication with the supporter is less important except in the state C, and reducing the frame rate reduces the transfer amount of the image data and reduces the battery consumption of the worker terminal 10. This is because the reduction effect is great.

したがって、本実施の形態では、図5に示されるように画像データの転送が制御される。図5は、本実施の形態における画像データの転送の制御方法を説明するための図である。図5において、曲線L1は、実際に利用可能な帯域を示す。曲線L2は、画像(映像)と音声との転送量を示す。曲線L3は、曲線L2が示す転送量のうち音声のみの転送量を示す。なお、図5では、画像の転送量と音声の転送量との比率は必ずしも正確ではない。   Therefore, in this embodiment, the transfer of image data is controlled as shown in FIG. FIG. 5 is a diagram for describing a method for controlling transfer of image data according to the present embodiment. In FIG. 5, a curve L1 indicates a band that can actually be used. A curve L2 represents the transfer amount of an image (video) and sound. A curve L3 indicates the transfer amount of only the voice among the transfer amounts indicated by the curve L2. In FIG. 5, the ratio between the image transfer amount and the sound transfer amount is not necessarily accurate.

図5に示されるように、本実施の形態では、曲線L1が示す利用可能帯域が低下して、通信に遅延が発生すると、曲線L2が示す転送量が低下するが、曲線L1が示す転送量は、破線によって示されるように低下が抑制される。これは、利用可能帯域に収まるように画像の転送量が小さくされることを意味する。すなわち、画像の転送量が低下することで、音声の転送量については、矢印a1によって示されるように低下を抑制することができる。なお、画像の転送量の低下は、画質の低下によって実現される。   As shown in FIG. 5, in the present embodiment, when the available bandwidth indicated by the curve L1 decreases and a delay occurs in communication, the transfer amount indicated by the curve L2 decreases, but the transfer amount indicated by the curve L1. Is suppressed from decreasing as indicated by the broken line. This means that the transfer amount of images is reduced so as to be within the usable bandwidth. That is, as the image transfer amount decreases, the decrease in the audio transfer amount can be suppressed as indicated by the arrow a1. Note that the reduction in image transfer amount is realized by the reduction in image quality.

以下、作業者端末10及び支援者端末20が実行する処理手順について説明する。図6は、作業者端末が実行する処理手順の一例を説明するためのフローチャートである。   Hereinafter, processing procedures executed by the worker terminal 10 and the supporter terminal 20 will be described. FIG. 6 is a flowchart for explaining an example of a processing procedure executed by the worker terminal.

ステップS101において、音声送受信部123及び画像送信制御部129は、支援者端末20との通信を接続する。続いて、画像送信制御部129は、画像データのフレームレート(FPS)の初期値を30に設定する(S102)。なお、30という値は一例である。また、初期値は、例えば、補助記憶装置102等に記憶されている。   In step S <b> 101, the voice transmission / reception unit 123 and the image transmission control unit 129 connect communication with the supporter terminal 20. Subsequently, the image transmission control unit 129 sets the initial value of the frame rate (FPS) of the image data to 30 (S102). The value of 30 is an example. The initial value is stored in the auxiliary storage device 102, for example.

続いて、入出力制御部121は、カメラ108を用いた撮影を開始する(S103)。その結果、カメラ108によって撮影された画像データが、入出力制御部121によって入力される。当該画像データは、画像表示部125によって表示装置106に表示される。   Subsequently, the input / output control unit 121 starts photographing using the camera 108 (S103). As a result, image data captured by the camera 108 is input by the input / output control unit 121. The image data is displayed on the display device 106 by the image display unit 125.

続いて、表示画像取得部126は、表示装置106について画面キャプチャを実行して、表示装置106に表示されている画像データを取得する(S104)。続いて、画像差分検出部127は、当該画像データと最後に送信された画像データとの差分画像を検出する。なお、画像データが未送信の場合、ステップS104において取得された画像データの全範囲が差分画像として検出される。差分画像の検出は、公知技術を用いて行うことができる。   Subsequently, the display image acquisition unit 126 executes screen capture for the display device 106 to acquire image data displayed on the display device 106 (S104). Subsequently, the image difference detection unit 127 detects a difference image between the image data and the last transmitted image data. When the image data has not been transmitted, the entire range of the image data acquired in step S104 is detected as a difference image. The detection of the difference image can be performed using a known technique.

続いて、音声入力が無ければ(S106でNo)、画像圧縮部128は、差分画像を符号化(圧縮)する(S107)。この際、画像圧縮部128は、画質調整部133から指定された帯域(ビットレート)以下となるように、差分画像を符号化する。例えば、MPEG/H264などの動画コーデックのエンコードモードのうち、CBR(Constant Bitrate)モードにて符号化を行うことで、指定された帯域となるように差分画像を符号化することができる。なお、当初は、予め初期値として設定されているデフォルトの帯域(ビットレート)が指定される。   Subsequently, if there is no voice input (No in S106), the image compression unit 128 encodes (compresses) the difference image (S107). At this time, the image compression unit 128 encodes the difference image so as to be equal to or less than the band (bit rate) designated by the image quality adjustment unit 133. For example, by encoding in a CBR (Constant Bitrate) mode among the encoding modes of a moving picture codec such as MPEG / H264, a differential image can be encoded so as to have a designated band. Initially, a default band (bit rate) set in advance as an initial value is designated.

続いて、画像送信制御部129は、符号化された差分画像を支援者端末20へ送信する(S108)。続いて、帯域推定部132は、差分画像の送信に要した時間等に基づいて、利用可能帯域の推定処理を実行する(S109)。利用可能帯域の推定処理では、利用可能帯域の推定値が取得される。なお、利用可能帯域の推定処理の一例については後述される。   Subsequently, the image transmission control unit 129 transmits the encoded difference image to the supporter terminal 20 (S108). Subsequently, the bandwidth estimation unit 132 performs an available bandwidth estimation process based on the time required for transmission of the difference image (S109). In the usable band estimation process, an estimated value of the usable band is acquired. An example of the available bandwidth estimation process will be described later.

続いて、画像送信制御部129は、利用可能帯域の推定値に基づいて、フレームレートを変更する(S110)。例えば、利用可能帯域の推定値から所定値(例えば、音声データの送信に必要な高い帯域(例えば、128kbps))を差し引くことにより得られる帯域内に画像データの送信量が収まるように、フレームレートが変更される。   Subsequently, the image transmission control unit 129 changes the frame rate based on the estimated value of the available bandwidth (S110). For example, the frame rate is set so that the transmission amount of the image data is within the band obtained by subtracting a predetermined value (for example, a high band (eg, 128 kbps) necessary for transmission of audio data) from the estimated value of the available band. Is changed.

ステップS104以降が刻々と繰り返されている過程において、作業者が支援者に対して話しかけたりする等により、入出力制御部121によってマイク109からの音声データが入力されると(S106でYes)、ステップS111以降が実行される。   When the voice data from the microphone 109 is input by the input / output control unit 121, such as when the worker speaks to the supporter in the process of step S104 and subsequent steps being repeated (Yes in S106), Step S111 and subsequent steps are executed.

ステップS111において、移動状態判定部134は、加速度センサ111によって振動が検出されているか否かを判定する(S111)。振動が検出されていない場合(S111でNo)、ステップS107以降が継続される。振動が検出されている場合(S111でYes)、移動状態判定部134は、加速度センサ111による振動の検出値に基づいて、作業者端末10の移動ベクトル(平均移動ベクトル)及び移動速度を算出する(S112)。続いて、移動状態判定部134は、算出された移動ベクトルが閾値α以上であり、かつ、算出された移動速度が閾値β(例えば、10cm/秒)以上であるか否かを判定する(S113)。当該判定は、現在の移動状態が状態Cに該当するか否かの判定に相当する。   In step S111, the movement state determination unit 134 determines whether vibration is detected by the acceleration sensor 111 (S111). When vibration is not detected (No in S111), Step S107 and subsequent steps are continued. When vibration is detected (Yes in S111), the movement state determination unit 134 calculates the movement vector (average movement vector) and movement speed of the worker terminal 10 based on the vibration detection value by the acceleration sensor 111. (S112). Subsequently, the movement state determination unit 134 determines whether or not the calculated movement vector is greater than or equal to a threshold value α and the calculated movement speed is greater than or equal to a threshold value β (for example, 10 cm / second) (S113). ). This determination corresponds to determination of whether or not the current movement state corresponds to the state C.

算出された移動ベクトルが閾値α未満である場合、又は算出された移動速度が閾値β(例えば、10cm/秒)未満である場合、すなわち、移動状態が状態Cに該当しない場合(S113でNo)、ステップS107以降が継続される。一方、算出された移動ベクトルが閾値α以上であり、かつ、算出された移動速度が閾値β以上である場合、すなわち、移動状態が状態Cに該当する場合(S113でYes)、作業者端末10と支援者端末20との通信に関して、所定時間(例えば、50m秒)以上の遅延の発生が遅延検出部131によって検出されているか否かが判定される(S114)。   When the calculated movement vector is less than the threshold value α, or when the calculated movement speed is less than the threshold value β (for example, 10 cm / second), that is, when the movement state does not correspond to the state C (No in S113). Step S107 and subsequent steps are continued. On the other hand, when the calculated movement vector is greater than or equal to the threshold value α and the calculated movement speed is greater than or equal to the threshold value β, that is, when the movement state corresponds to the state C (Yes in S113), the worker terminal 10 With respect to the communication with the supporter terminal 20, it is determined whether or not the delay detection unit 131 detects the occurrence of a delay of a predetermined time (for example, 50 milliseconds) or more (S114).

所定時間以上の遅延が発生していることが検出されている場合(S114でYes)、画質調整部133は、最後に実行されたステップS109において算出された利用可能帯域の推定値に合わせて差分画像の画質を調整する(S115)。例えば、画質調整部133は、利用可能帯域の推定値から所定値(例えば、音声データの送信に必要な高い帯域(例えば、128kbps))を差し引くことにより得られる帯域(ビットレート)を、画像圧縮部128に指定する。したがって、利用可能帯域が下がれば、画像圧縮部128に指定される帯域は下がり、利用可能帯域が上がれば、画像圧縮部128に指定される帯域は上がる。   When it is detected that a delay of a predetermined time or more has occurred (Yes in S114), the image quality adjustment unit 133 compares the difference with the estimated value of the available bandwidth calculated in step S109 executed last. The image quality is adjusted (S115). For example, the image quality adjustment unit 133 performs image compression on a band (bit rate) obtained by subtracting a predetermined value (for example, a high band (eg, 128 kbps) necessary for audio data transmission) from the estimated value of the available band. Part 128. Therefore, if the available band decreases, the band specified for the image compression unit 128 decreases, and if the available band increases, the band specified for the image compression unit 128 increases.

一方、所定時間以上の遅延が発生していることが検出されていない場合(S114でNo)、画質調整部133は、予め初期値として設定されたデフォルトの帯域(ビットレート)を画像圧縮部128に指定する(S116)。   On the other hand, if it is not detected that a delay of a predetermined time or more has occurred (No in S114), the image quality adjustment unit 133 uses the default band (bit rate) set as an initial value in advance as the image compression unit 128. (S116).

ステップS115又はS116の実行後におけるステップS107において、画像圧縮部128は、最後に画質調整部133から指定された帯域以下となるように、差分画像を圧縮(符号化)する。   In step S107 after the execution of step S115 or S116, the image compression unit 128 compresses (encodes) the difference image so that it finally becomes equal to or less than the band designated by the image quality adjustment unit 133.

ステップS104以降が繰り返される過程において、例えば、作業者によって撮影の終了指示が入力されると(S117でYes)、図6の処理は終了する。   In the process in which step S104 and subsequent steps are repeated, for example, when an instruction to end shooting is input by the operator (Yes in S117), the processing in FIG. 6 ends.

図7は、支援者端末が実行する処理手順の一例を説明するためのフローチャートである。   FIG. 7 is a flowchart for explaining an example of a processing procedure executed by the supporter terminal.

ステップS201において、音声送受信部23及び差分画像受信部24は、作業者端末10との通信を接続する。以降は、イベントが発生すると、そのイベントに応じた処理が実行される。   In step S <b> 201, the voice transmission / reception unit 23 and the difference image reception unit 24 connect communication with the worker terminal 10. Thereafter, when an event occurs, processing corresponding to the event is executed.

例えば、差分画像受信部24によって差分画像が受信されると(S202でYes)、画像表示部25は、当該差分画像を現在の表示画像に反映させる(S203)。その結果、支援者は、作業者端末10が撮影している画像を見ることができる。   For example, when the difference image is received by the difference image receiving unit 24 (Yes in S202), the image display unit 25 reflects the difference image on the current display image (S203). As a result, the supporter can see the image taken by the worker terminal 10.

また、音声送受信部23によって音声データが受信されると(S204でYes)、入出力制御部21は、当該音声データを再生する(S205)。   When the audio transmission / reception unit 23 receives audio data (Yes in S204), the input / output control unit 21 reproduces the audio data (S205).

また、入出力制御部21が、音声データ(支援者の声)を入力すると(S206でYes)、音声送受信部23は、当該音声データを作業者端末10へ送信する(S207)。その結果、支援者は、作業者に対して指示等を与えることができる。   When the input / output control unit 21 inputs voice data (supporter's voice) (Yes in S206), the voice transmitting / receiving unit 23 transmits the voice data to the worker terminal 10 (S207). As a result, the supporter can give instructions to the worker.

続いて、図6のステップS109の詳細について説明する。図8は、利用可能帯域の推定処理の一例を説明するための図である。図8の内容は、特開2013−238993号公報における開示内容の概要を本実施の形態に当てはめたものである。   Next, details of step S109 in FIG. 6 will be described. FIG. 8 is a diagram for explaining an example of the estimation process of the available bandwidth. The content of FIG. 8 applies the outline | summary of the content disclosed in Unexamined-Japanese-Patent No. 2013-238993 to this Embodiment.

まず、作業者端末10は、通信の開始時に作業者端末10の送信時刻を支援者端末20に送信する(S31)。支援者端末20は、当該送信時刻と受信時刻との時間差Δtを算出する(S32)。   First, the worker terminal 10 transmits the transmission time of the worker terminal 10 to the supporter terminal 20 at the start of communication (S31). The supporter terminal 20 calculates a time difference Δt between the transmission time and the reception time (S32).

なお、例えば、ステップS31の前後において、作業者端末10と支援者端末20との間の通信遅延が計測される。当該通信遅延は、例えば、pingコマンド等を用いて計測することができる。例えば、時間差Δtから当該通信遅延を差し引くことで、作業者端末10における時刻と、支援者端末20における時刻との差(以下、「時刻差」という。)が算出される。   For example, before and after step S31, the communication delay between the worker terminal 10 and the supporter terminal 20 is measured. The communication delay can be measured using, for example, a ping command. For example, by subtracting the communication delay from the time difference Δt, a difference between the time at the worker terminal 10 and the time at the supporter terminal 20 (hereinafter referred to as “time difference”) is calculated.

続いて、作業者端末10は、画像データの送信時に、送信時刻を付加する(S33)。支援者端末20は、当該画像データを受信すると、付加されている送信時刻と受信時刻との時間差と、受信した画像データのデータサイズとに基づいて転送速度を算出する(S34)。この際、時間差は、時刻差によって補正される。   Subsequently, the worker terminal 10 adds a transmission time when transmitting the image data (S33). When receiving the image data, the supporter terminal 20 calculates a transfer rate based on the time difference between the added transmission time and the reception time and the data size of the received image data (S34). At this time, the time difference is corrected by the time difference.

ステップS35においても同様に、作業者端末10は、画像データの送信時に、送信時刻を付加する。支援者端末20は、当該画像データを受信すると、ステップS34において算出した転送速度と、受信された画像データのデータサイズとに基づいて、当該画像データの予想受信時刻を算出する(S36)。続いて、支援者端末20は、予想受信時刻が、実際の受信時刻よりも閾値を超えて遅いか否かを判定する(S37)。   Similarly in step S35, the worker terminal 10 adds a transmission time when transmitting image data. When receiving the image data, the supporter terminal 20 calculates an expected reception time of the image data based on the transfer speed calculated in step S34 and the data size of the received image data (S36). Subsequently, the supporter terminal 20 determines whether or not the expected reception time is later than the actual reception time by exceeding the threshold (S37).

予想受信時刻が、実際の受信時刻よりも閾値を超えて遅い場合、支援者端末20は、ステップS35における送信時刻と実際の受信時刻とデータサイズとに基づいて求まる転送速度を利用可能帯域の推定値として作業者端末10に通知する(S38)。作業者端末10の帯域推定部132は、当該推定値を受信する。   When the expected reception time is later than the actual reception time by more than the threshold, the supporter terminal 20 estimates the transfer rate obtained based on the transmission time, the actual reception time, and the data size in step S35. The value is notified to the worker terminal 10 as a value (S38). The band estimation unit 132 of the worker terminal 10 receives the estimated value.

上述したように、本実施の形態によれば、利用可能帯域が推定され、当該利用可能帯域から音声データの送信に必要な帯域が差し引かれた帯域に収まるように画像データが符号化される。したがって、画像と共に送信される音声の品質の低下を抑制することができる。   As described above, according to the present embodiment, the available bandwidth is estimated, and the image data is encoded so as to be within the bandwidth obtained by subtracting the bandwidth necessary for audio data transmission from the available bandwidth. Therefore, it is possible to suppress a decrease in quality of sound transmitted together with the image.

その結果、作業者端末10と支援者端末20との間で画像及び音声を送受信する作業支援システム1において、作業者端末10で撮影した画像を現場とオフィスとでリアルタイムに共有しながら、オフィスの支援者は、作業者による説明を的確に聞き取ることができる。   As a result, in the work support system 1 that transmits and receives images and sound between the worker terminal 10 and the supporter terminal 20, the image captured by the worker terminal 10 is shared in real time between the site and the office, The supporter can accurately hear the explanation given by the worker.

すなわち、現場の作業者とオフィス等の支援者との音声コミュニケーションの品質を維持して、作業者端末10の処理能力不足による音切れなどを抑制できるので、スムーズなコミュニケーションが維持できる。   That is, since the quality of voice communication between a worker on site and a supporter such as an office can be maintained and sound cuts due to insufficient processing capability of the worker terminal 10 can be suppressed, smooth communication can be maintained.

特に、作業者が現場で作業対象を撮影しながら点検業務を行っている場面で、音質及びフレームレートを維持しながら、画質を一時的に低下させることで、フレームレートの高い滑らかな画像と、音質の高い音声とを支援者に送信することで、支援者による遠隔支援がスムーズに行えるようになる。   In particular, in scenes where workers are performing inspection work while photographing work objects on site, while maintaining sound quality and frame rate, the image quality is temporarily reduced, and a smooth image with a high frame rate, By transmitting high-quality sound to the supporter, remote support by the supporter can be performed smoothly.

なお、本実施の形態において、作業者端末10は、情報処理端末の一例である。支援者端末20は、情報処理装置の一例である。入出力制御部121は、画像入力部及び音声入力部の一例である。画像圧縮部128は、符号化部の一例である。画像送信制御部129及び音声送受信部123は、送信部の一例である。帯域推定部132は、推定部の一例である。遅延検出部131は、第1の検出部の一例である。移動状態判定部134は、判定部の一例である。加速度センサ111は、第2の検出部の一例である。   In the present embodiment, worker terminal 10 is an example of an information processing terminal. The supporter terminal 20 is an example of an information processing device. The input / output control unit 121 is an example of an image input unit and an audio input unit. The image compression unit 128 is an example of an encoding unit. The image transmission control unit 129 and the audio transmission / reception unit 123 are examples of a transmission unit. The band estimation unit 132 is an example of an estimation unit. The delay detection unit 131 is an example of a first detection unit. The movement state determination unit 134 is an example of a determination unit. The acceleration sensor 111 is an example of a second detection unit.

以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   As mentioned above, although the Example of this invention was explained in full detail, this invention is not limited to such specific embodiment, In the range of the summary of this invention described in the claim, various deformation | transformation・ Change is possible.

以上の説明に関し、更に以下の項を開示する。
(付記1)
画像データを入力する画像入力部と、
音声データを入力する音声入力部と、
前記画像データを符号化する符号化部と、
符号化された前記画像データと前記音声データとをネットワークを介して接続される情報処理装置に送信する送信部と、
前記ネットワークにおいて前記画像データ及び前記音声データの送信に利用可能な帯域の推定値を取得する推定部とを有し、
前記符号化部は、前記推定値より小さい帯域に収まるように前記画像データを符号化する、
ことを特徴とする情報処理端末。
(付記2)
前記ネットワークを介した通信の遅延を検出する第1の検出部を有し、
前記符号化部は、前記遅延が検出された場合に、前記推定値より小さい帯域に収まるように前記画像データを符号化する、
ことを特徴とする付記1記載の情報処理端末。
(付記3)
前記情報処理端末の振動を検出する第2の検出部と、
検出された振動に基づいて、前記情報処理端末の移動状態を判定する判定部とを有し、
前記符号化部は、前記遅延が検出された場合であって、前記判定部によって判定された移動状態が所定の条件を満たす場合に、前記推定値より小さい帯域に収まるように前記画像データを符号化する、
ことを特徴とする付記2記載の情報処理端末。
(付記4)
画像データを入力する処理と、
音声データを入力する処理と、
前記画像データを符号化する処理と
符号化された前記画像データと前記音声データとをネットワークを介して接続される情報処理装置に送信する処理と、
前記ネットワークにおいて前記画像データ及び前記音声データの送信に利用可能な帯域の推定値を取得する処理とを情報処理端末が実行し、
前記符号化する処理は、前記推定値より小さい帯域に収まるように前記画像データを符号化する、
ことを特徴とする情報処理方法。
(付記5)
前記ネットワークを介した通信の遅延を検出する処理を前記情報処理端末が実行し、
前記符号化する処理は、前記遅延が検出された場合に、前記推定値より小さい帯域に収まるように前記画像データを符号化する、
ことを特徴とする付記4記載の情報処理方法。
(付記6)
前記情報処理端末の振動を検出する処理と、
検出された振動に基づいて、前記情報処理端末の移動状態を判定する処理とを前記情報処理端末が実行し、
前記符号化する処理は、前記遅延が検出された場合であって、前記判定する処理において判定された移動状態が所定の条件を満たす場合に、前記推定値より小さい帯域に収まるように前記画像データを符号化する、
ことを特徴とする付記5記載の情報処理方法。
(付記7)
画像データを入力する処理と、
音声データを入力する処理と、
前記画像データを符号化する処理と
符号化された前記画像データと前記音声データとをネットワークを介して接続される情報処理装置に送信する処理と、
前記ネットワークにおいて前記画像データ及び前記音声データの送信に利用可能な帯域の推定値を取得する処理とを情報処理端末に実行させ、
前記符号化する処理は、前記推定値より小さい帯域に収まるように前記画像データを符号化する、
ことを特徴とするプログラム。
(付記8)
前記ネットワークを介した通信の遅延を検出する処理を前記情報処理端末に実行させ、
前記符号化する処理は、前記遅延が検出された場合に、前記推定値より小さい帯域に収まるように前記画像データを符号化する、
ことを特徴とする付記7記載のプログラム。
(付記9)
前記情報処理端末の振動を検出する処理と、
検出された振動に基づいて、前記情報処理端末の移動状態を判定する処理とを前記情報処理端末に実行させ、
前記符号化する処理は、前記遅延が検出された場合であって、前記判定する処理において判定された移動状態が所定の条件を満たす場合に、前記推定値より小さい帯域に収まるように前記画像データを符号化する、
ことを特徴とする付記8記載のプログラム。
Regarding the above description, the following items are further disclosed.
(Appendix 1)
An image input unit for inputting image data;
A voice input unit for inputting voice data;
An encoding unit for encoding the image data;
A transmission unit for transmitting the encoded image data and the audio data to an information processing apparatus connected via a network;
An estimation unit that acquires an estimated value of a bandwidth that can be used for transmission of the image data and the audio data in the network;
The encoding unit encodes the image data so as to be within a band smaller than the estimated value;
An information processing terminal characterized by that.
(Appendix 2)
A first detection unit that detects a delay in communication via the network;
When the delay is detected, the encoding unit encodes the image data so as to be within a band smaller than the estimated value.
The information processing terminal according to Supplementary Note 1, wherein
(Appendix 3)
A second detection unit for detecting vibration of the information processing terminal;
A determination unit that determines a movement state of the information processing terminal based on the detected vibration;
The encoding unit encodes the image data so that it falls within a band smaller than the estimated value when the delay is detected and the movement state determined by the determination unit satisfies a predetermined condition. ,
The information processing terminal according to supplementary note 2, characterized by:
(Appendix 4)
Processing to input image data;
Processing to input audio data;
A process of encoding the image data; a process of transmitting the encoded image data and the audio data to an information processing apparatus connected via a network;
The information processing terminal executes processing for obtaining an estimated value of a bandwidth that can be used for transmission of the image data and the audio data in the network,
The encoding process encodes the image data so as to be within a band smaller than the estimated value.
An information processing method characterized by the above.
(Appendix 5)
The information processing terminal executes a process of detecting a delay in communication via the network,
The encoding process encodes the image data so that it falls within a band smaller than the estimated value when the delay is detected.
The information processing method according to appendix 4, characterized in that:
(Appendix 6)
Processing for detecting vibration of the information processing terminal;
The information processing terminal executes a process of determining a movement state of the information processing terminal based on the detected vibration,
The encoding process is performed when the delay is detected, and when the moving state determined in the determination process satisfies a predetermined condition, the image data is stored in a band smaller than the estimated value. Encode
The information processing method according to appendix 5, characterized in that:
(Appendix 7)
Processing to input image data;
Processing to input audio data;
A process of encoding the image data; a process of transmitting the encoded image data and the audio data to an information processing apparatus connected via a network;
In the network, the information processing terminal is caused to execute processing for obtaining an estimated value of a bandwidth that can be used for transmission of the image data and the audio data,
The encoding process encodes the image data so as to be within a band smaller than the estimated value.
A program characterized by that.
(Appendix 8)
Causing the information processing terminal to execute processing for detecting a delay in communication via the network;
The encoding process encodes the image data so that it falls within a band smaller than the estimated value when the delay is detected.
The program according to appendix 7, characterized by:
(Appendix 9)
Processing for detecting vibration of the information processing terminal;
Based on the detected vibration, the information processing terminal is caused to execute a process of determining a movement state of the information processing terminal,
The encoding process is performed when the delay is detected, and when the moving state determined in the determination process satisfies a predetermined condition, the image data is stored in a band smaller than the estimated value. Encode
The program according to appendix 8, which is characterized by the above.

10 作業者端末
20 支援者端末
21 入出力制御部
22 通信制御部
23 音声送受信部
24 差分画像受信部
25 画像表示部
100 ドライブ装置
101 記録媒体
102 補助記憶装置
103 メモリ装置
104 CPU
105 インタフェース装置
106 表示装置
107 入力装置
108 カメラ
109 マイク
110 スピーカ
111 加速度センサ
121 入出力制御部
122 音声圧縮部
123 音声送受信部
124 音声再生部
125 画像表示部
126 表示画像取得部
127 画像差分検出部
128 画像圧縮部
129 画像送信制御部
130 無線通信制御部
131 遅延検出部
132 帯域推定部
133 画質調整部
134 移動状態判定部
B バス
N1 IPネットワーク
N2 無線通信網
DESCRIPTION OF SYMBOLS 10 Worker terminal 20 Supporter terminal 21 Input / output control part 22 Communication control part 23 Audio | voice transmission / reception part 24 Difference image receiving part 25 Image display part 100 Drive apparatus 101 Recording medium 102 Auxiliary storage apparatus 103 Memory apparatus 104 CPU
105 interface device 106 display device 107 input device 108 camera 109 microphone 110 speaker 111 acceleration sensor 121 input / output control unit 122 audio compression unit 123 audio transmission / reception unit 124 audio reproduction unit 125 image display unit 126 display image acquisition unit 127 image difference detection unit 128 Image compression unit 129 Image transmission control unit 130 Wireless communication control unit 131 Delay detection unit 132 Band estimation unit 133 Image quality adjustment unit 134 Moving state determination unit B Bus N1 IP network N2 Wireless communication network

Claims (5)

情報処理端末であって、
画像データを入力する画像入力部と、
音声データを入力する音声入力部と、
前記画像データを符号化する符号化部と、
符号化された前記画像データと前記音声データとをネットワークを介して接続される情報処理装置に送信する送信部と、
前記ネットワークにおいて前記画像データ及び前記音声データの送信に利用可能な帯域の推定値を取得する推定部と
前記情報処理端末の振動を検出する第2の検出部と、
検出された振動に基づいて、前記情報処理端末の移動状態を判定する判定部とを有し、
前記符号化部は、前記判定部によって判定された移動状態が所定の条件を満たす場合には前記画像データの画質を変更することで前記推定値より小さい帯域に収まるように前記画像データを符号化し、前記判定部によって判定された移動状態が所定の条件を満たさない場合には前記画像データのフレームレートを変更することで前記推定値より小さい帯域に収まるように前記画像データを符号化する、
ことを特徴とする情報処理端末。
An information processing terminal,
An image input unit for inputting image data;
A voice input unit for inputting voice data;
An encoding unit for encoding the image data;
A transmission unit for transmitting the encoded image data and the audio data to an information processing apparatus connected via a network;
An estimation unit that obtains an estimated value of a bandwidth that can be used for transmission of the image data and the audio data in the network ;
A second detection unit for detecting vibration of the information processing terminal;
A determination unit that determines a movement state of the information processing terminal based on the detected vibration ;
When the moving state determined by the determination unit satisfies a predetermined condition, the encoding unit encodes the image data so as to be within a band smaller than the estimated value by changing an image quality of the image data. When the moving state determined by the determination unit does not satisfy a predetermined condition, the image data is encoded so as to be within a band smaller than the estimated value by changing a frame rate of the image data.
An information processing terminal characterized by that.
前記ネットワークを介した通信の遅延を検出する第1の検出部を有し、
前記符号化部は、前記遅延が検出された場合に、前記推定値より小さい帯域に収まるように前記画像データを符号化する、
ことを特徴とする請求項1記載の情報処理端末。
A first detection unit that detects a delay in communication via the network;
When the delay is detected, the encoding unit encodes the image data so as to be within a band smaller than the estimated value.
The information processing terminal according to claim 1.
前記符号化部は、前記遅延が検出された場合であって、前記判定部によって判定された移動状態が所定の条件を満たす場合に、前記推定値より小さい帯域に収まるように前記画像データを符号化する、
ことを特徴とする請求項2記載の情報処理端末。
The encoding unit encodes the image data so as to be within a band smaller than the estimated value when the delay is detected and the movement state determined by the determination unit satisfies a predetermined condition. ,
The information processing terminal according to claim 2.
情報処理端末が、
画像データを入力する処理と、
音声データを入力する処理と、
前記画像データを符号化する処理と
符号化された前記画像データと前記音声データとをネットワークを介して接続される情報処理装置に送信する処理と、
前記ネットワークにおいて前記画像データ及び前記音声データの送信に利用可能な帯域の推定値を取得する処理と
前記情報処理端末の振動を検出する処理と、
検出された振動に基づいて、前記情報処理端末の移動状態を判定する処理とを実行し、
前記符号化する処理は、前記判定する処理において判定された移動状態が所定の条件を満たす場合には前記画像データの画質を変更することで前記推定値より小さい帯域に収まるように前記画像データを符号化し、前記判定する処理において判定された移動状態が所定の条件を満たさない場合には前記画像データのフレームレートを変更することで前記推定値より小さい帯域に収まるように前記画像データを符号化する、
ことを特徴とする情報処理方法。
Information processing terminal
Processing to input image data;
Processing to input audio data;
A process of encoding the image data; a process of transmitting the encoded image data and the audio data to an information processing apparatus connected via a network;
Processing for obtaining an estimated value of a bandwidth that can be used for transmission of the image data and the audio data in the network ;
Processing for detecting vibration of the information processing terminal;
A process of determining a movement state of the information processing terminal based on the detected vibration ;
When the moving state determined in the determining process satisfies a predetermined condition , the encoding process changes the image quality of the image data so that the image data falls within a band smaller than the estimated value. Encode and encode the image data so that it falls within a band smaller than the estimated value by changing the frame rate of the image data when the moving state determined in the determining process does not satisfy a predetermined condition To
An information processing method characterized by the above.
情報処理端末に、
画像データを入力する処理と、
音声データを入力する処理と、
前記画像データを符号化する処理と
符号化された前記画像データと前記音声データとをネットワークを介して接続される情報処理装置に送信する処理と、
前記ネットワークにおいて前記画像データ及び前記音声データの送信に利用可能な帯域の推定値を取得する処理と
前記情報処理端末の振動を検出する処理と、
検出された振動に基づいて、前記情報処理端末の移動状態を判定する処理とを実行させ、
前記符号化する処理は、前記判定する処理において判定された移動状態が所定の条件を満たす場合には前記画像データの画質を変更することで前記推定値より小さい帯域に収まるように前記画像データを符号化し、前記判定する処理において判定された移動状態が所定の条件を満たさない場合には前記画像データのフレームレートを変更することで前記推定値より小さい帯域に収まるように前記画像データを符号化する、
ことを特徴とするプログラム。
In the information processing terminal,
Processing to input image data;
Processing to input audio data;
A process of encoding the image data; a process of transmitting the encoded image data and the audio data to an information processing apparatus connected via a network;
Processing for obtaining an estimated value of a bandwidth that can be used for transmission of the image data and the audio data in the network ;
Processing for detecting vibration of the information processing terminal;
A process for determining a movement state of the information processing terminal based on the detected vibration ;
When the moving state determined in the determining process satisfies a predetermined condition , the encoding process changes the image quality of the image data so that the image data falls within a band smaller than the estimated value. Encode and encode the image data so that it falls within a band smaller than the estimated value by changing the frame rate of the image data when the moving state determined in the determining process does not satisfy a predetermined condition To
A program characterized by that.
JP2016077322A 2016-04-07 2016-04-07 Information processing terminal, information processing method, and program Active JP6604256B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016077322A JP6604256B2 (en) 2016-04-07 2016-04-07 Information processing terminal, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016077322A JP6604256B2 (en) 2016-04-07 2016-04-07 Information processing terminal, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2017188820A JP2017188820A (en) 2017-10-12
JP6604256B2 true JP6604256B2 (en) 2019-11-13

Family

ID=60045783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016077322A Active JP6604256B2 (en) 2016-04-07 2016-04-07 Information processing terminal, information processing method, and program

Country Status (1)

Country Link
JP (1) JP6604256B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11150711A (en) * 1997-11-17 1999-06-02 Nec Corp Video conference data transferring device
JP2000092464A (en) * 1998-09-08 2000-03-31 Canon Inc Image communication device and computer-readable storage medium
JP3707369B2 (en) * 2000-08-10 2005-10-19 日本電気株式会社 Video phone equipment
JP2005130428A (en) * 2003-09-29 2005-05-19 Ntt Communications Kk Two-way video communication apparatus, its processing method, client device and program
JP2010239389A (en) * 2009-03-31 2010-10-21 Kddi R & D Laboratories Inc Video transmission system
JP2014045438A (en) * 2012-08-28 2014-03-13 Nec Corp Remote operation support system, remote operation support method, and remote operation support program
JP2016005043A (en) * 2014-06-13 2016-01-12 株式会社リコー Information processing device and program

Also Published As

Publication number Publication date
JP2017188820A (en) 2017-10-12

Similar Documents

Publication Publication Date Title
US11190570B2 (en) Video encoding using starve mode
KR101526081B1 (en) System and method for controllably viewing digital video streams captured by surveillance cameras
WO2013132828A1 (en) Communication system and relay apparatus
JP2015536594A (en) Aggressive video frame drop
EP2986020B1 (en) Method and apparatus for adjusting video quality based on network environment
JP5974881B2 (en) Information processing apparatus and control method thereof
KR102432804B1 (en) Video capture device using MJPEG
US9344678B2 (en) Information processing apparatus, information processing method and computer-readable storage medium
WO2013187033A1 (en) Control device, image transmission method, and control program
US20140376877A1 (en) Information processing apparatus, information processing method and program
EP2482549A1 (en) Apparatus and method for synchronizing media capture in a wireless device
CN109729438B (en) Method and device for sending video packet and method and device for receiving video packet
KR20150034057A (en) System and method for networking
US10085050B2 (en) Method and apparatus for adjusting video quality based on network environment
JP6604256B2 (en) Information processing terminal, information processing method, and program
JP2015119335A (en) Terminal, system, program and method to thin out frame of photographed moving image in accordance with movement change amount
US10447969B2 (en) Image processing device, image processing method, and picture transmission and reception system
US20170171492A1 (en) Display control apparatus, imaging apparatus, and display control method
KR102003044B1 (en) Method and apparatus for improving QoE in sharing screen between plural devices and recording medium thereof
JP6415387B2 (en) Display control apparatus, display control method, and program
WO2016151974A1 (en) Information processing device, information processing method, client device, server device, and information processing system
JP2013031038A (en) Communication device, image acquisition method, and image acquisition program
JP2015142360A (en) Imaging apparatus and universal head device
JP2023019869A (en) Transmitter and communication system
JP2017103526A (en) Information transmission device, information processing system, transmission method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190625

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190930

R150 Certificate of patent or registration of utility model

Ref document number: 6604256

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150