JP2022121326A - プログラム、方法、情報処理装置及びシステム - Google Patents

プログラム、方法、情報処理装置及びシステム Download PDF

Info

Publication number
JP2022121326A
JP2022121326A JP2021018619A JP2021018619A JP2022121326A JP 2022121326 A JP2022121326 A JP 2022121326A JP 2021018619 A JP2021018619 A JP 2021018619A JP 2021018619 A JP2021018619 A JP 2021018619A JP 2022121326 A JP2022121326 A JP 2022121326A
Authority
JP
Japan
Prior art keywords
information
sensing
image
person
sensing information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021018619A
Other languages
English (en)
Inventor
俊二 菅谷
Shunji Sugaya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Optim Corp
Original Assignee
Optim Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Optim Corp filed Critical Optim Corp
Priority to JP2021018619A priority Critical patent/JP2022121326A/ja
Publication of JP2022121326A publication Critical patent/JP2022121326A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

Figure 2022121326000001
【課題】遠隔地にいる指示者に対して、作業者の作業環境に関する様々な情報を効率的に共有する。
【解決手段】プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムである。プログラムは、プロセッサに、第1者の作業環境を、少なくとも撮影手段を含むセンシング手段によりセンシングした複数種類のセンシング情報を取得する第1ステップと、取得した複数種類のセンシング情報のうち、画像情報以外のセンシング情報を文字情報に変換する第2ステップと、画像情報に基づく第1画像と、変換された文字情報を含む第2画像とを、第1者の作業を支援する第2者に提示する第3ステップとを実行させる。
【選択図】図7

Description

本開示は、プログラム、方法、情報処理装置及びシステムに関する。
近年、情報通信技術を活用して、オペレータなどの指示者が、遠隔地から現場の作業者をサポートする技術がある。
例えば、特許文献1では、ウェアラブルデバイスを用いた遠隔作業支援システムが開示されている。当該遠隔作業支援システムでは、作業者が装備し、かつ、カメラデバイスとモーションセンサとを具備するウェアラブルデバイスにより取得される動画データと、モーションセンサにより取得されるモーションデータとが、逐次、作業支援端末へ送信される。作業支援端末は、作業者から送信される動画データとモーションデータとに基づき、一枚の広範囲の周囲の状況が写った合成静止画と、動画データによる動画とを並べてディスプレイ上に表示する。
特開2016-181751号公報
特許文献1で記載される作業支援端末で表示される情報は、ウェアラブルデバイスから送信された映像情報に基づく情報である。支援者には作業者の作業を支援するに当たり、映像情報に基づく情報以外の情報も確認したいという要望がある。
そこで、本開示は、遠隔地にいる指示者に対して、作業者の作業環境に関する様々な情報を効率的に共有することを目的としている。
本開示の一実施形態によると、プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムが提供される。プログラムは、プロセッサに、第1者の作業環境を、少なくとも撮影手段を含むセンシング手段によりセンシングした複数種類のセンシング情報を取得する第1ステップと、取得した複数種類のセンシング情報のうち、画像情報以外のセンシング情報を文字情報に変換する第2ステップと、画像情報に基づく第1画像と、変換された文字情報を含む第2画像とを、第1者の作業を支援する第2者に提示する第3ステップとを実行させる。
本開示によれば、遠隔地にいる指示者に対して、作業者の作業環境に関する様々な情報を効率的に共有することができる。
第1の実施形態のシステム1の全体の構成を示す図である。 第1の実施形態のシステム1を構成する、作業者が操作する端末装置10Aのブロック図である。 第1の実施形態のシステム1を構成する、指示者が操作する端末装置10Bのブロック図である。 第1の実施形態のシステム1を構成するサーバ20の機能的な構成を示す図である。 サーバ20が記憶するセンシング情報データベース281のデータ構造を示す図である。 作業者の作業環境に関するセンシング情報を指示者の端末装置に表示する流れの一例を説明する図である。 指示者の端末装置10Bの画面例の図である。 指示者の端末装置10Bの画面例の図である。
以下、図面を参照しつつ、本開示の実施形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称及び機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
<概要>
本実施形態に係るシステムは、現場の作業者の作業環境に関する様々なセンシング情報を、遠隔地にいて作業者に対する指示を発する指示者の端末装置に表示する。例えば、システムは、カメラ、マイク、及び各種センサを備えるセンシング手段により、作業者の作業環境をセンシングし、取得した様々なセンシング情報を、指示者の端末装置に提示する。本実施形態に係るシステムは、様々な場面に活用可能であり、例えば、プロダクトの製造ライン、農園、物流、メンテナンス、小売りなどの遠隔支援に用いられる。
<1 システム1の全体構成>
図1は、第1の実施形態のシステム1の全体の構成を示す図である。
図1に示すように、システム1は、作業者が操作する端末装置10Aと、指示者が操作する端末装置10Bと、サーバ20とを含む。端末装置10Aと、端末装置10Bと、サーバ20とは、有線又は無線の通信規格を用いて、ネットワーク80を介して相互に通信可能に接続されている。
端末装置10A及び端末装置10Bは、例えば、移動体通信システムに対応したスマートフォン、タブレット等の携帯端末により実現される。この他に、端末装置10A及び端末装置10Bは、例えば、据え置き型のPC(Personal Computer)、ラップトップPCなどであるとしてもよい。
また、端末装置10Aは、作業者の身体に装着され、作業者の作業環境をセンシングするためのウェアラブルデバイスであってよい。例えば、端末装置10Aは、撮影手段及び各種センサを搭載しているスマートグラスである。また、例えば、端末装置10Aは、ジャイロセンサ等のモーションセンサを備え、作業者の動きを検知することとしてよい。これにより、作業者は、端末装置10Aを装着したまま、作業環境をセンシングすることができる。
端末装置10Aは、作業者の作業環境をセンシングするため、撮影手段及び各種センサなどによって構成されるセンシング手段を含む。センサとしては、例えば、音センサ、温度センサ、ガスセンサ、匂いセンサ、触覚センサ、距離センサ、位置情報センサ、圧力センサ、光センサ、又は加速度センサなどが挙げられる。これにより、端末装置10Aは、複数種類のセンシング情報を取得することが可能である。
なお、図示するように、端末装置10Aは、センシングデバイス11Aと有線又は無線により接続されてもよい。センシングデバイス11Aは、作業者の作業環境をセンシングするためのデバイスである。例えば、センシングデバイス11Aは、音センサ、温度センサ、ガスセンサ、匂いセンサ、触覚センサ、距離センサ、位置情報センサ、圧力センサ、光センサ、又は加速度センサなどの各種センサを搭載したものであってよい。センシングデバイス11Aにより取得したセンシング情報は、端末装置10Aに送信される。なお、端末装置10Aとセンシングデバイス11Aとが同一の装置であってもよい。
図1に端末装置10Aとして示すように、端末装置10A及び端末装置10Bは、通信IF(Interface)12と、入力装置13と、出力装置14と、メモリ15と、ストレージ16と、プロセッサ19とを備える。
通信IF12は、端末装置10A及び端末装置10Bが外部の装置と通信するため、信号を入出力するためのインタフェースである。入力装置13は、ユーザからの入力操作を受け付けるための入力装置(例えば、タッチパネル、タッチパッド、マウス等のポインティングデバイス、キーボード等)である。出力装置14は、ユーザに対し情報を提示するための出力装置(ディスプレイ、スピーカ等)である。メモリ15は、プログラム、および、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。ストレージ16は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。プロセッサ19は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路などにより構成される。
サーバ20は、各作業者の作業環境に関する情報を収集し、データベースに蓄積しつつ、各作業者をサポートする指示者に提示する。例えば、サーバ20は、作業者の端末装置10Aから、端末装置10A又はセンシングデバイス11Aの各種センシング結果を取得しつつ、指示者の端末装置10Bに表示する。サーバ20は、例えば、ネットワーク80に接続されたコンピュータである。
図1に示すように、サーバ20は、通信IF22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備える。
通信IF22は、サーバ20が外部の装置と通信するため、信号を入出力するためのインタフェースである。入出力IF23は、ユーザからの入力操作を受け付けるための入力装置、および、ユーザに対し情報を提示するための出力装置とのインタフェースとして機能する。メモリ25は、プログラム、および、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM等の揮発性のメモリである。ストレージ26は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDDである。プロセッサ29は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路などにより構成される。
<1.1 端末装置10Aの構成>
図2は、第1の実施形態のシステム1を構成する、作業者が操作する端末装置10Aのブロック図である。図2に示すように、端末装置10Aは、通信部121と、操作受付部130(タッチ・センシティブ・デバイス131およびディスプレイ132を含む)と、音声処理部140と、マイク141と、スピーカ142と、センサ150と、カメラ160と、記憶部170Aと、制御部180Aと、を含む。端末装置10Aは、図2では特に図示していない機能及び構成(例えば、電力を保持するためのバッテリー、バッテリーから各回路への電力の供給を制御する電力供給回路など)も有している。図2に示すように、端末装置10Aに含まれる各ブロックは、バス等により電気的に接続される。
通信部121は、有線又は無線の通信規格を用いて、端末装置10Aが外部の装置と通信するための処理を行う。
操作受付部130は、操作者の入力操作を受け付けるための機構を有する。具体的には、操作受付部130は、タッチスクリーンとして構成され、タッチ・センシティブ・デバイス131と、ディスプレイ132とを含む。また、操作受付部130は、マウス、キーボード等を含むこととしてもよい。
タッチ・センシティブ・デバイス131は、端末装置10Aの操作者の入力操作を受け付ける。タッチ・センシティブ・デバイス131は、例えば静電容量方式のタッチパネルを用いることによって、タッチパネルに対する操作者の接触位置を検出する。タッチ・センシティブ・デバイス131は、タッチパネルにより検出した操作者の接触位置を示す信号を入力操作として制御部180Aへ出力する。
ディスプレイ132は、制御部180Aの制御に応じて、画像、動画、テキストなどのデータを表示する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイによって実現される。
音声処理部140は、例えば、音声信号のデジタル-アナログ変換を行う。音声処理部140は、マイク141から与えられる信号をデジタル信号に変換して、変換後の信号を制御部180Aへ与える。また、音声処理部140は、音声信号をスピーカ142へ与える。音声処理部140は、例えば音声処理用のプロセッサによって実現される。マイク141は、作業環境の音声情報を検知するセンサの一例であり、作業者の発言、又は、作業者の周辺音をセンシングする。マイク141は、検知した音声情報に対応する音声信号を音声処理部140へ与える。スピーカ142は、音声処理部140から与えられる音声信号を音声に変換して当該音声を端末装置10Aの外部へ出力する。
センサ150は、作業者の作業環境をセンシングする。例えば、センサ150は、温度センサ、ガスセンサ、匂いセンサ、触覚センサ、距離センサ、位置情報センサ、若しくは加速度センサなどを含む。例えば、センサ150は、温度センサにより、作業環境の温度情報を検知し、作業者周辺の空気の温度、又は、作業の対象物の温度をセンシングする。また、センサ150は、ガスセンサ、匂いセンサ、触覚センサ、距離センサ、位置情報センサ、又は加速度センサにより、それぞれ、作業環境における可燃性ガスや毒性ガス、各種香気や臭気成分、作業者が把持している物体の把持状況、作業者と物体との距離、作業者の位置情報、又は作業者の加速度や動きを検知する。
カメラ160は、受光素子により光を受光して、画像情報として出力するためのデバイスである。カメラ160は、例えば、カメラ160から撮影対象までの距離を検出できる深度カメラであってもよい。カメラ160は、作業環境を撮影して画像情報を取得する。
記憶部170Aは、例えばストレージ16などにより実現され、端末装置10Aが使用するデータおよびプログラムを記憶する。ある局面において、記憶部170Aは、作業者情報171を記憶する。
作業者情報171は、それぞれの作業者に関する情報である。例えば、作業者情報171は、作業者ID、作業者が使用している端末装置10Aの端末ID、作業者の名前、所属に関する情報などを含む。
制御部180Aは、記憶部170Aに記憶されるプログラムを読み込んで、プログラムに含まれる命令を実行することにより、端末装置10Aの動作を制御する。制御部180Aは、プログラムに従って動作することにより、入力操作受付部181と、送受信部182Aと、センシング部183、表示制御部184Aとしての機能を発揮する。
入力操作受付部181は、タッチ・センシティブ・デバイス131等の入力装置に対する操作者の入力操作を受け付ける処理を行う。
送受信部182Aは、端末装置10Aが、サーバ20等の外部の装置と、通信プロトコルに従ってデータを送受信するための処理を行う。例えば、送受信部182Aは、端末装置10Aに搭載されているセンシング手段、又はセンシングデバイス11Aが作業環境をセンシングして取得した各種センシング情報をサーバ20へ送信する。また、送受信部182Aは、サーバ20から、後述する指示者の端末装置に表示された情報の一部を受信する。
センシング部183は、端末装置10Aに搭載されているセンシング手段、又はセンシングデバイス11Aによって、作業者の作業環境をセンシングし、センシング情報を取得する。例えば、センシング部183は、端末装置10Aのカメラ160によって、作業環境を撮影して画像情報を取得する。また、例えば、センシング部183は、端末装置10Aのマイク141によって、作業環境の音声情報を検知して取得する。また、例えば、センシング部183は、センサ150によって、作業環境の温度情報、可燃性ガスや毒性ガス、各種香気や臭気成分、作業者が把持している物体の把持状況、作業者と物体との距離、作業者の位置情報、又は作業者の加速度や動きなどを検知して取得する。
センシング部183は、センシング手段、又はセンシングデバイス11Aを制御してセンシング情報を自動的に取得してもよいし、作業者の指示操作に基づいてセンシング情報を取得してもよい。例えば、センシング部183は、作業者が作業しているとき、作業環境をリアルタイムにセンシングしてよいし、所定の時間間隔をおいてセンシングしてもよい。センシング頻度は、例えば、作業者により設定されてよい。また、センシング部183は、作業者がセンシング手段、又はセンシングデバイス11Aを起動する都度、作業環境をセンシングしてよい。
また、センシング部183は、指示者の指定に基づいて、取得するセンシング情報の種類と、センシング情報を取得する頻度とが設定されてもよい。例えば、指示者が端末装置10Bに表示するセンシング情報の種類を指定した場合、センシング部183は、指定された種類のセンシング情報を取得することを設定する。また、例えば、指定された種類のセンシング情報を取得する頻度を指示者が指定した場合、センシング部183は、指定された頻度でセンシング情報を取得する。なお、センシング情報を取得する頻度が指定されず、デフォルト値が予め設定されていてもよい。また、センシング情報が指定されず、センシング情報を取得する頻度のみが指定されてもよい。
表示制御部184Aは、端末装置10Aで利用可能な機能を提供するため、ディスプレイ132を制御する。例えば、表示制御部184Aは、後述する指示者の端末装置に表示された情報の一部を、作業者に表示する。また、表示制御部184Aは、指示者による指示情報を作業者に表示してもよい。例えば、表示制御部184Aは、指示者が送信した指示メッセージ(支援メッセージ)を作業者に表示する。
<1.2 端末装置10Bの構成>
図3は、第1の実施形態に係るシステム1を構成する、指示者が操作する端末装置10Bのブロック図である。指示者は、例えば、作業者に対して指示を発する者であり、また、作業者の作業を支援する者である。端末装置10Bは、記憶部170Bに記憶されている指示者情報172、及び、制御部180Bを構成する送受信部182B、表示制御部184B以外、図2に示す端末装置10Aと同じように構成されているので、その説明を省略する。以下、指示者情報172、送受信部182B、表示制御部184Bについて説明する。
指示者情報172は、それぞれの指示者に関する情報である。例えば、指示者情報172は、指示者ID、指示者が使用している端末装置10Bの端末ID、指示者の名前、所属に関する情報などを含む。
送受信部182Bは、端末装置10Bが、サーバ20等の外部の装置と、通信プロトコルに従ってデータを送受信するための処理を行う。送受信部182Bは、サーバ20から送信される情報を受信する。また、送受信部182Bは、指示者から受け付けた指示情報をサーバ20に送信する。
表示制御部184Bは、サーバ20から送信される情報に基づき、複数種類のセンシング情報を指示者に提示するため、ディスプレイ132を制御する。また、表示制御部184Bは、指示者から指示操作を受け付けるためのオブジェクトを表示するため、ディスプレイ132を制御する。
<1.3 サーバ20の機能的な構成>
図4は、第1の実施形態のシステム1を構成するサーバ20の機能的な構成を示す図である。図4に示すように、サーバ20は、通信部201と、記憶部202と、制御部203としての機能を発揮する。
通信部201は、サーバ20が外部の装置と通信するための処理を行う。
記憶部202は、サーバ20が使用するデータ及びプログラムを記憶する。記憶部202は、センシング情報データベース281を記憶する。
センシング情報データベース281は、センシング手段により作業者の作業環境をセンシングすることで取得した複数種類のセンシング情報を保持するためのデータベースである。詳細は後述する。
制御部203は、サーバ20のプロセッサがプログラムに従って処理を行うことにより、各種モジュールとして示す機能を発揮する。具体的に、制御部203は、プログラムに従って処理を行うことにより、受信制御部2031、送信制御部2032、取得部2033、変換部2034、提示部2035として示す機能を発揮する。
受信制御部2031は、サーバ20が外部の装置から通信プロトコルに従って信号を受信する処理を制御する。受信制御部2031は、例えば、端末装置10Aから送信される複数種類のセンシング情報を受信する。受信制御部2031は、受信したセンシング情報をセンシング情報データベース281に格納する。受信制御部2031は、例えば、端末装置10Bから送信される指示者から信号を受信する。
送信制御部2032は、サーバ20が外部の装置に対し通信プロトコルに従って信号を送信する処理を制御する。送信制御部2032は、例えば、端末装置10Bにセンシング情報を提示させるための情報を送信する。送信制御部2032は、例えば、端末装置10Aへ指示者からの信号を送信する。
取得部2033は、端末装置10Aに対し、取得するセンシング情報の種類、センシング情報を取得する頻度を設定する。例えば、取得部2033は、センシング情報として、例えば、画像情報、音声情報、温度情報、又は、ガスセンサ、匂いセンサ、触覚センサ、距離センサ、位置情報センサ、若しくは加速度センサによって取得した情報を取得することを設定する。画像情報は、作業者の作業環境を示すものである。音声情報は、作業者の発言、又は、作業者の周辺音を示すものである。温度情報は、作業者周辺の空気の温度、又は、作業の対象物の温度を示すものである。
変換部2034は、取得したセンシング情報を端末装置10Bに提示するのに適した態様に変換する。例えば、変換部2034は、画像情報以外の情報を文字情報に変換する。例えば、変換部2034は、センシング情報における音声情報を認識し、文字情報に変換する。また、例えば、変換部2034は、センシング情報における温度情報を、温度を示す文字情報に変換する。また、例えば、変換部2034は、ガスセンサ又は匂いセンサによって検知したセンシング情報を、作業環境における可燃性ガスや毒性ガス、各種香気や臭気成分の濃度を示す文字情報に変換する。
また、例えば、変換部2034は、触覚センサ、距離センサ、圧力センサ、光センサ、又は加速度センサによって検知したセンシング情報をそれぞれ、作業者が把持している物体の把持状況、作業者と物体との距離、大気圧、光量、又は作業者の加速度や動きを示す文字情報に変換する。また、変換部2034は、位置情報センサによって検知したセンシング情報を、作業者の位置情報を示す文字情報に変換する。位置情報を示す文字情報は、例えば、緯度及び経度を表す文字情報、又は住所を表す文字情報などである。
提示部2035は、端末装置10Aで取得されたセンシング情報を指示者に提示する。具体的には、例えば、提示部2035は、作業環境を撮影して得られる画像情報に基づく第1画像と、変換部2034で変換された文字情報を含む複数の第2画像とを端末装置10Bに表示させる。提示部2035は、例えば、第1画像を画面の中央に配置し、第2画像を第1画像の周囲に配置する。
例えば、提示部2035は、音声情報から変換された文字情報を、発話者が識別可能な態様で含む第2画像を指示者に提示する。また、例えば、提示部2035は、温度情報から変換された文字情報と、温度情報の程度又は推移が把握可能な画像とを含む第2画像を指示者に提示する。情報の程度が把握可能な画像とは、例えば、回転計表示などによる画像を含む。情報の推移が把握可能な画像とは、例えば、折れ線グラフなどによる画像を含む。また、例えば、提示部2035は、ガスセンサ又は匂いセンサによって検知されたセンシング情報から変換された文字情報と、当該情報の程度又は推移が把握可能な画像とを含む第2画像を指示者に提示する。
また、例えば、提示部2035は、触覚センサ、距離センサ、圧力センサ、光量センサ、又は加速度センサによって検知されたセンシング情報から変換された文字情報を含む第2画像を指示者に提示する。また、提示部2035は、位置情報センサによって検知された位置情報から変換された文字情報と、当該情報の位置を表す地図画像とを含む第2画像を指示者に提示する。
また、提示部2035は、センシング情報が所定の条件を満たしている場合、当該センシング情報を示す文字情報の表示形態を変更して提示してよい。ここでいう「所定の条件」とは、例えば、基準値を超えること、又は、基準値を下回ることなどである。例えば、提示部2035は、温度センサによって検知された温度情報を、文字情報に変換して表示し、温度が所定の基準値を超える場合、当該文字情報の色を変更したり、大きさを変更したりして表示する。
また、提示部2035は、センシング情報が所定の条件を満たしている場合、予め設定された内容を第2画像に含めて表示してよい。例えば、提示部2035は、ガスセンサによって検知された可燃性ガスの濃度を、文字情報に変換して表示し、可燃性ガスの濃度が所定の基準値を超える場合、予め設定されたアラームメッセージを指示者に提示する。
また、提示部2035は、指示者が表示するセンシング情報を設定している場合、設定されているセンシング情報についての情報を指示者に提示してもよい。具体的に、指示者の端末装置10Bは、指示者から、端末装置10Bに表示すべきセンシング情報の種類を指定する操作を受け付ける。提示部2035は、当該指定に基づいて、複数種類のセンシング情報のうち、指示者によって指定された種類のセンシング情報を、指示者に提示する。
また、提示部2035は、所定のタイミングで、センシング情報の種類を切り替えて指示者に提示してもよい。所定のタイミングは、例えば、所定周期、所定の時刻への到達、所定の数値への到達、指示者からの指示などである。具体的に、センシング情報の種類が多い場合、提示部2035は、それぞれのセンシング情報の表示順を予め決定して、一定時間ごとに、表示するセンシング情報の種類を切り替える。例えば、提示部2035は、温度センサ、ガスセンサ、匂いセンサ、触覚センサ、圧力センサ、光センサによりセンシング情報が取得される場合、温度センサ、ガスセンサ、匂いセンサにより検知されるセンシング情報から変換される文字情報を含む第2画像を所定秒間表示すると、触覚センサ、圧力センサ、光センサにより検知されるセンシング情報から変換される文字情報を含む第2画像の表示へ切り替える。
また、提示部2035は、端末装置10Bに表示された文字情報の少なくとも一部を、端末装置10Aに表示してよい。例えば、提示部2035は、指示者に提示する、温度情報から変換された文字情報を、端末装置10Aに表示させる。これにより、作業者も自身が置かれた作業環境を把握することが可能となる。また、指示者に表示されている情報を作業者が認識することが可能となる。
また、提示部2035は、指示者から取得した、遠隔作業を指示するための指示情報を、作業者に提示する。例えば、提示部2035は、指示者から取得した音声指示情報を端末装置10Aに再生させる。また、提示部2035は、指示者から取得した文字による指示情報、又は画像による指示情報を、端末装置10Aに表示させる。このとき、例えば、指示者は、作業者の撮影手段で撮影した画像情報に対して赤ペンなどで指示情報を追記し、追記した指示情報を送信し、端末装置10Aに表示させる。
<2 データ構造>
以下、図5を参照しながら、サーバ20が記憶するセンシング情報データベース281のデータ構造について説明する。
図5は、サーバ20が記憶するセンシング情報データベース281のデータ構造を示す図である。センシング情報データベース281は、センシング手段により作業者の作業環境をセンシングすることで取得した複数種類のセンシング情報を保持するためのデータベースである。
図5に示すように、センシング情報データベース281のレコードのそれぞれは、項目「作業者ID」、項目「指示者ID」、項目「画像情報」、項目「音声情報」、項目「温度情報」、項目「位置情報」、項目「可燃性ガス濃度情報」を含む。なお、ここに示す項目はすべてではなく、他の項目があっても構わない。例えば、匂いセンサ、触覚センサ、距離センサ、圧力センサ、光センサ、又は加速度センサによって取得したセンシング情報があってもよい。
項目「作業者ID」は、それぞれの作業者を識別する情報を記憶する。
項目「指示者ID」は、それぞれの指示者を識別する情報を記憶する。
項目「画像情報」は、取得時刻において、作業者のセンシング手段で撮影した画像情報を記憶する。項目「画像情報」は、例えば、作業者と指示者とが通信している間の画像情報を記憶する。
項目「音声情報」は、各取得時刻において、作業者の端末装置10Aのマイク141で取得した音声情報を記憶する。音声情報は、例えば、作業者の発言でもよいし、作業者の周辺音であってもよい。音声情報は、サーバ20により文字情報に変換される。
項目「温度情報」は、各取得時刻において、作業者のセンシング手段で取得した温度情報を記憶する。温度情報は、例えば、作業者周辺の空気の温度であってもよいし、作業の対象物の温度であってもよい。温度情報は、サーバ20により文字情報に変換される。
項目「位置情報」は、各取得時刻において、作業者のセンシング手段で取得した位置情報を記憶する。位置情報は、例えば緯度及び経度の形で記憶されており、サーバ20により文字情報に変換される。サーバ20により変換される文字情報は、緯度及び経度であってもよいし、緯度及び経度と、地図に関する情報とから取得される住所であってもよい。住所には、例えば、建物の名称、フロア数等も含まれる。
項目「可燃性ガス濃度情報」は、各取得時刻において、作業者のガスセンサによって検知した可燃性ガスの濃度に関する情報を記憶する。可燃性ガス濃度情報は、サーバ20により文字情報に変換される。
<3 動作>
以下、図6を参照しながら、作業者の作業環境をセンシングすることで取得した複数種類のセンシング情報を、サーバ20が指示者に提示する処理について説明する。
ステップS621において、サーバ20の受信制御部2031は、作業者の端末装置10Aから送信される複数種類のセンシング情報を受信する。
具体的に、作業者の端末装置10Aのセンシング部183は、端末装置10Aに搭載されているセンシング手段、又はセンシングデバイス11Aによって、作業者の作業環境をセンシングし、複数種類のセンシング情報を取得する。例えば、センシング部183は、端末装置10Aのカメラ160によって、作業環境を撮影して画像情報を取得する。また、例えば、センシング部183は、マイク141によって、作業環境の音声情報を取得する。また、例えば、センシング部183は、センサ150によって、作業環境の温度情報、可燃性ガスや毒性ガスの濃度情報、各種香気や臭気成分の濃度情報、作業者が把持している物体の把持状況(接触情報)、作業者と物体との距離情報、作業者の位置情報、圧力情報、光量情報、又は作業者の加速度情報や動き情報などを、所定の周期で検知して取得する。なお、端末装置10Aに搭載されているセンシング手段、又はセンシングデバイス11Aにより取得されるセンシング情報の種類、又は取得頻度は、指示者からの指定信号に基づき、取得部2033により設定されていてもよい。
センシング部183が取得した複数種類のセンシング情報は、送受信部182Aにより、サーバ20に送信される。サーバ20の受信制御部2031は、当該センシング情報を取得する。
ステップS622において、サーバ20の変換部2034は、取得したセンシング情報のうち、画像情報以外のセンシング情報を文字情報に変換する。
例えば、変換部2034は、センシング情報における音声情報を認識し、文字情報に変換する。また、例えば、変換部2034は、センシング情報における温度情報を、温度を示す文字情報に変換する。また、例えば、変換部2034は、ガスセンサ又は匂いセンサによって検知したセンシング情報を、作業環境における可燃性ガスや毒性ガス、各種香気や臭気成分の濃度を示す文字情報に変換する。
また、例えば、変換部2034は、触覚センサ、距離センサ、圧力センサ、光センサ、又は加速度センサによって検知したセンシング情報を、作業者が把持している物体の把持状況、作業者と物体との距離、大気圧、光量、又は作業者の加速度や動きを示す文字情報に変換する。また、変換部2034は、位置情報センサによって検知したセンシング情報を、作業者の位置情報を示す文字情報に変換する。
ステップS623において、サーバ20の提示部2035は、作業環境を撮影して得られる画像情報に基づく第1画像と、変換部2034で変換された文字情報を含む複数の第2画像とを端末装置10Bに表示させる。
これにより、サーバ20は、画像情報を含む複数種類のセンシング情報を取得し、指示者の端末装置10Bに提示することが可能となる。このため、指示者は、作業者の作業環境を把握可能な情報を取得可能となる。また、サーバ20は、端末装置10Bに複数種類のセンシング情報を同時に表示させることが可能となる。このため、指示者は、複数種類のセンシング情報を一目で確認することが可能となる。
また、画像情報以外のセンシング情報は、文字情報に変換されて提示されるので、複数種類のセンシング情報を、視認性良く可視化して指示者に同時に提示することができる。
ステップS623において、提示部2035は、センシング情報が所定の条件を満たしている場合、当該センシング情報を示す文字情報の表示形態を変更して提示してよい。これにより、注目すべきセンシング情報を目立ちやすい形で指示者に提示することができる。
また、提示部2035は、センシング情報が所定の条件を満たしている場合、予め設定された内容を表示してもよい。これにより、センシング情報に基づいて注意すべき内容を指示者に提示することができる。
ステップS623において、提示部2035は、指示者が表示するセンシング情報を設定している場合、設定されているセンシング情報についての情報を指示者に提示してもよい。例えば、指示者の端末装置10Bは、指示者から、端末装置10Bに表示すべきセンシング情報の種類を指定する操作を受け付ける。提示部2035は、当該指定に基づいて、複数種類のセンシング情報のうち、指示者によって指定された種類のセンシング情報を、指示者に提示する。
これにより、サーバ20は、指示者が知りたいセンシング情報のみを指示者に提示することができる。
また、端末装置及びサーバは、必要な情報に絞ってセンシング情報の取得と送受信を行うことで、通信速度や端末処理能力を節約することができる。
ステップS623において、提示部2035は、所定のタイミングで、センシング情報の種類を切り替えて指示者に提示してもよい。これにより、センシング情報の種類は多い場合であっても、これらのセンシング情報を切り替えながら提示することができる。
以上のように、遠隔地にいる指示者に対して、作業者の作業環境に関する様々な情報を効率的に共有することができる。
<4 画面例>
図7、図8は、指示者が操作する端末装置10Bの画面例の図である。
図7は、指示者の端末装置10Bにおいて、複数種類のセンシング情報を同時に表示する局面を示す図である。
図7に示すように、指示者の端末装置10Bのディスプレイ132において、複数種類のセンシング情報は、複数のエリア、例えば、エリアA1~エリアA7で表示されている。エリアA1では、端末装置10Aのカメラ160により撮影された作業環境の画像情報に基づく第1画像が表示されている。エリアA2~エリアA7は、エリアA1の周囲に配置されている。エリアA2~エリアA7は、エリアA1の外に配置されていると換言可能である。また、エリアA2~エリアA7は、エリアA1が画面に表示された際に余った領域に配置されていると換言可能である。
エリアA2では、作業者の発言(音声情報)から変換された文字情報を、発話者の発言と指示者の発言とが識別可能な態様で含む第2画像が表示されている。エリアA3では、位置情報センサによって検知された位置情報から変換された文字情報と、当該情報の位置を表す地図画像とを含む第2画像が表示されている。エリアA4~A7では、各種センシング手段により検知されたセンシング情報(PM2.5の濃度、二酸化炭素の濃度、温度、湿度)から変換された文字情報と、当該情報の程度が把握可能な画像とを含む第2画像が表示されている。また、エリアA8,A9では、各種センシング手段により検知されたセンシング情報(気圧、照度)から変換された文字情報を含む第2画像が表示されている。
なお、エリアA3では、位置を表す文字情報として(経度:○○,緯度:○○)が表示されているが、エリアA3で表示される位置を表す文字情報はこれに限定されない。位置を表す文字情報は、住所であってもよい。また、住所から抜粋される所定の情報、例えば、建物名、建物名とフロア数等であってもよい。
これにより、サーバ20は、画像情報を含む複数種類のセンシング情報を取得し、指示者の端末装置10Bに提示することが可能となる。このため、指示者は、作業者の作業環境を把握可能な情報を取得可能となる。また、サーバ20は、端末装置10Bに複数種類のセンシング情報を同時に表示させることが可能となる。このため、指示者は、複数種類のセンシング情報を一目で確認することが可能となる。
また、画像情報以外のセンシング情報は、文字情報に変換されて提示されるので、複数種類のセンシング情報を、視認性良く可視化して指示者に同時に提示することができる。
エリアA4~A7に示すように、センシング情報が変換された文字情報は、値の程度が把握可能な回転計を表す画像と共に表示されている。また、図示されていないが、センシング情報の数値の変化につれて、文字情報の色を変更させるようにしてもよい。例えば、二酸化炭素の濃度情報について、基準範囲が予め設定され、基準範囲内の数値を黄色で表示し、基準範囲を超えた数値を赤色で表示し、基準範囲を下回る数値を緑色で表示する。
これにより、サーバ20は、センシング情報を文字情報に変換した上で、指示者が視認しやすい形で端末装置10Bに表示させることができる。また、サーバ20は、センシング情報の数値に基づいて文字情報の表示形態を変更することで、注目すべきセンシング情報を目立ちやすい形で指示者に提示することができる。
次に、指示者による、端末装置10Bに表示させるセンシング情報の設定について説明する。
図8は、端末装置10Bのディスプレイ132において、表示すべきセンシング情報の種類の指定を受け付ける画面の例を示す図である。
図8に示すように、ディスプレイ132には、指示者から、端末装置10Bに表示すべきセンシング情報の種類を指定する操作を受け付けるためのチェックボックスが表示されている。指示者がチェックボックスにチェックを入力し、操作オブジェクト1321を押下すると、指定したセンシング情報を取得する旨の指示信号がサーバ20に送信される。なお、図8において、取得頻度に関する指定を入力するオブジェクトが表示されていてもよい。当該オブジェクトに指示者から情報が入力されると、入力された情報に基づく頻度でセンシング情報を取得する旨の指示信号がサーバ20に送信される。
サーバ20は、取得部2033により、端末装置10Aに対し、取得するセンシング情報の種類を設定する。取得頻度についての指示がある場合、サーバ20は、端末装置10Aに対し、センシング情報を取得する頻度を設定する。
これにより、サーバ20は、指示者によって指定された種類のセンシング情報を、端末装置10Bに表示させることが可能となる。このため、サーバ20は、指示者が知りたいセンシング情報のみを指示者に提示し、効率的にセンシング情報を共有することができる。また、端末装置及びサーバは、必要な情報に絞ってセンシング情報の取得と送受信を行うことで、通信速度や端末処理能力を節約することができる。
<5 変形例>
上記実施形態では、指示者からの指定があった場合、端末装置10Aのセンシング部183が、指定された種類のセンシング情報を取得する場合を例に説明した。しかしながら、取得されるセンシング情報の種類はセンシング部183で設定されるものに限定されない。例えば、サーバ20の取得部2033で設定されてもよい。
具体的には、例えば、端末装置10Aは、端末装置10Aに搭載されているセンシング手段、又はセンシングデバイス11Aによって取得されるセンシング情報をサーバ20へ送信する。取得部2033は、受信したセンシング情報のうち、指示者から指定されるセンシング情報の種類を指示者に提示する。
また、上記実施形態では、指示者からの指定があった場合、端末装置10Aのセンシング部183が、指定された頻度でセンシング情報を取得する場合を例に説明した。しかしながら、センシング情報の取得頻度はセンシング部183で設定されるものに限定されない。例えば、サーバ20の取得部2033で設定されてもよい。
具体的には、例えば、取得部2033は、端末装置10Aに搭載されているセンシング手段、又はセンシングデバイス11Aによって取得されるセンシング情報を、端末装置10Aに対して所定の頻度で要求してもよい。取得部2033は、要求に応じて端末装置10Aから送信されるセンシング情報を指示者に提示する。
また、上記実施形態では、サーバ20が変換部2034を備える例を説明した。しかしながら、センシング情報は、端末装置10Bで文字情報へ変換されてもよい。
これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものとする。
<付記>
以上の各実施形態で説明した事項を以下に付記する。
(付記1)プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムであって、プログラムは、プロセッサに、第1者の作業環境を、少なくとも撮影手段を含むセンシング手段によりセンシングした複数種類のセンシング情報を取得する第1ステップ(ステップS621)と、取得した複数種類のセンシング情報のうち、画像情報以外のセンシング情報を文字情報に変換する第2ステップ(ステップS622)と、画像情報に基づく第1画像と、変換された文字情報を含む第2画像とを、第1者の作業を支援する第2者に提示する第3ステップ(ステップS623)とを実行させるプログラム。
(付記2)第3ステップにおいて、センシング情報が所定の条件を満たしている場合、当該センシング情報を示す文字情報の表示形態を変更する、(付記1)に記載のプログラム。
(付記3)第3ステップ(ステップS623)において、センシング情報が所定の条件を満たしている場合、当該センシング情報を示す文字情報の大きさ又は色を変更する、(付記2)に記載のプログラム。
(付記4)第3ステップ(ステップS623)において、センシング情報が所定の条件を満たしている場合、予め設定された内容を表示する、(付記1)から(付記3)のいずれかに記載のプログラム。
(付記5)第2者に提示する第2画像に含めるセンシング情報の種類を指定する操作を第2者から受け付けるステップをプロセッサに実行させ、第2ステップ(ステップS622)において、画像情報以外のセンシング情報のうち、第2者によって指定された種類のセンシング情報を文字情報に変換する、(付記1)から(付記4)のいずれかに記載のプログラム。
(付記6)第2者に提示する第2画像に含めるセンシング情報を取得する頻度を指定する操作を第2者から受け付けるステップをプロセッサに実行させ、第1ステップ(ステップS621)において、複数種類のセンシング情報を頻度で取得する、(付記5)に記載のプログラム。
(付記7)第3ステップ(ステップS623)において、所定のタイミングで、第2画像の内容を切り替える、(付記1)から(付記6)のいずれかに記載のプログラム。
(付記8)第1ステップ(ステップS621)において、センシング情報は、少なくとも、音声情報、温度情報、濃度情報、接触情報、距離情報、位置情報、圧力情報、光量情報、又は加速度情報を含む、(付記1)から(付記7)のいずれかに記載のプログラム。
(付記9)第3ステップ(ステップS623)において、第2画像は、第1画像の周囲に配置される(付記1)から(付記8)のいずれかに記載のプログラム。
(付記10)第2者に提示した第2画像に含まれる文字情報の少なくとも一部を、第1者に提示するステップをプロセッサに実行させる、(付記1)から(付記9)のいずれかに記載のプログラム。
(付記11)プロセッサと、メモリとを備えるコンピュータにより実行される方法であって、プロセッサが、第1者の作業環境を、少なくとも撮影手段を含むセンシング手段によりセンシングした複数種類のセンシング情報を取得する第1ステップ(ステップS621)と、取得した複数種類のセンシング情報のうち、画像情報以外のセンシング情報を文字情報に変換する第2ステップ(ステップS622)と、画像情報に基づく第1画像と、変換された文字情報を含む第2画像とを、第1者の作業を支援する第2者に提示する第3ステップ(ステップS623)とを実行する方法。
(付記12)制御部と、記憶部とを備える情報処理装置であって、制御部が、第1者の作業環境を、少なくとも撮影手段を含むセンシング手段によりセンシングした複数種類のセンシング情報を取得する第1ステップ(ステップS621)と、取得した複数種類のセンシング情報のうち、画像情報以外のセンシング情報を文字情報に変換する第2ステップ(ステップS622)と、画像情報に基づく第1画像と、変換された文字情報を含む第2画像とを、第1者の作業を支援する第2者に提示する第3ステップ(ステップS623)とを実行する情報処理装置。
(付記13)第1者の作業環境を、少なくとも撮影手段を含むセンシング手段によりセンシングした複数種類のセンシング情報を取得する手段(ステップS621)と、取得した複数種類のセンシング情報のうち、画像情報以外のセンシング情報を文字情報に変換する手段(ステップS622)と、画像情報に基づく第1画像と、変換された文字情報を含む第2画像とを、第1者の作業を支援する第2者に提示する手段(ステップS623)とを具備するシステム。
10A、10B 端末装置、20 サーバ、80 ネットワーク、12 通信IF、13 入力装置、14 出力装置、15 メモリ、16 記憶部、19 プロセッサ、201 通信部、202 記憶部、281 センシング情報データベース、203 制御部。

Claims (13)

  1. プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムであって、前記プログラムは、前記プロセッサに、
    第1者の作業環境を、少なくとも撮影手段を含むセンシング手段によりセンシングした複数種類のセンシング情報を取得する第1ステップと、
    前記取得した複数種類のセンシング情報のうち、画像情報以外のセンシング情報を文字情報に変換する第2ステップと、
    前記画像情報に基づく第1画像と、前記変換された文字情報を含む第2画像とを、前記第1者の作業を支援する第2者に提示する第3ステップと
    を実行させるプログラム。
  2. 前記第3ステップにおいて、前記センシング情報が所定の条件を満たしている場合、当該センシング情報を示す前記文字情報の表示形態を変更する、請求項1に記載のプログラム。
  3. 前記第3ステップにおいて、前記センシング情報が所定の条件を満たしている場合、当該センシング情報を示す前記文字情報の大きさ又は色を変更する、請求項2に記載のプログラム。
  4. 前記第3ステップにおいて、前記センシング情報が所定の条件を満たしている場合、予め設定された内容を表示する、請求項1から3のいずれかに記載のプログラム。
  5. 前記第2者に提示する前記第2画像に含めるセンシング情報の種類を指定する操作を前記第2者から受け付けるステップを前記プロセッサに実行させ、
    前記第2ステップにおいて、前記画像情報以外のセンシング情報のうち、前記第2者によって指定された種類のセンシング情報を文字情報に変換する、請求項1から4のいずれかに記載のプログラム。
  6. 前記第2者に提示する前記第2画像に含めるセンシング情報を取得する頻度を指定する操作を前記第2者から受け付けるステップを前記プロセッサに実行させ、
    前記第1ステップにおいて、前記複数種類のセンシング情報を前記頻度で取得する、請求項5に記載のプログラム。
  7. 前記第3ステップにおいて、所定のタイミングで、前記第2画像の内容を切り替える、請求項1から6のいずれかに記載のプログラム。
  8. 前記第1ステップにおいて、前記センシング情報は、少なくとも、音声情報、温度情報、濃度情報、接触情報、距離情報、位置情報、圧力情報、光量情報、又は加速度情報を含む、請求項1から7のいずれかに記載のプログラム。
  9. 前記第3ステップにおいて、前記第2画像は、前記第1画像の周囲に配置される請求項1から8のいずれかに記載のプログラム。
  10. 前記第2者に提示した前記第2画像に含まれる文字情報の少なくとも一部を、前記第1者に提示するステップを前記プロセッサに実行させる、請求項1から9のいずれかに記載のプログラム。
  11. プロセッサと、メモリとを備えるコンピュータにより実行される方法であって、
    前記プロセッサが、
    第1者の作業環境を、少なくとも撮影手段を含むセンシング手段によりセンシングした複数種類のセンシング情報を取得する第1ステップと、
    前記取得した複数種類のセンシング情報のうち、画像情報以外のセンシング情報を文字情報に変換する第2ステップと、
    前記画像情報に基づく第1画像と、前記変換された文字情報を含む第2画像とを、前記第1者の作業を支援する第2者に提示する第3ステップと
    を実行する方法。
  12. 制御部と、記憶部とを備える情報処理装置であって、
    前記制御部が、
    第1者の作業環境を、少なくとも撮影手段を含むセンシング手段によりセンシングした複数種類のセンシング情報を取得する第1ステップと、
    前記取得した複数種類のセンシング情報のうち、画像情報以外のセンシング情報を文字情報に変換する第2ステップと、
    前記画像情報に基づく第1画像と、前記変換された文字情報を含む第2画像とを、前記第1者の作業を支援する第2者に提示する第3ステップと
    を実行する情報処理装置。
  13. 第1者の作業環境を、少なくとも撮影手段を含むセンシング手段によりセンシングした複数種類のセンシング情報を取得する手段と、
    前記取得した複数種類のセンシング情報のうち、画像情報以外のセンシング情報を文字情報に変換する手段と、
    前記画像情報に基づく第1画像と、前記変換された文字情報を含む第2画像とを、前記第1者の作業を支援する第2者に提示する手段と
    を具備するシステム。

JP2021018619A 2021-02-08 2021-02-08 プログラム、方法、情報処理装置及びシステム Pending JP2022121326A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021018619A JP2022121326A (ja) 2021-02-08 2021-02-08 プログラム、方法、情報処理装置及びシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021018619A JP2022121326A (ja) 2021-02-08 2021-02-08 プログラム、方法、情報処理装置及びシステム

Publications (1)

Publication Number Publication Date
JP2022121326A true JP2022121326A (ja) 2022-08-19

Family

ID=82849416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021018619A Pending JP2022121326A (ja) 2021-02-08 2021-02-08 プログラム、方法、情報処理装置及びシステム

Country Status (1)

Country Link
JP (1) JP2022121326A (ja)

Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59162475A (ja) * 1983-03-07 1984-09-13 Nippon Denso Co Ltd 自動車用気象表示装置
JPS60176148U (ja) * 1984-05-01 1985-11-21 オムロン株式会社 電子温度計
JPH06195578A (ja) * 1992-12-24 1994-07-15 Toshiba Corp 系統監視装置
JP2005080172A (ja) * 2003-09-03 2005-03-24 Fujitsu Ltd 動画像の蓄積管理方法及び蓄積管理装置
JP2008085533A (ja) * 2006-09-27 2008-04-10 Funai Electric Co Ltd 撮像装置および撮像機能付き携帯電話機
JP2010116086A (ja) * 2008-11-14 2010-05-27 Alpine Electronics Inc 車載用表示装置、表示方法および表示プログラム
JP2012004618A (ja) * 2010-06-14 2012-01-05 Nec Corp 動画再生装置、動画記録再生システム、動画制御方法、及びプログラム
JP2012030611A (ja) * 2010-07-28 2012-02-16 Denso Corp 車両用表示装置
JP2012238149A (ja) * 2011-05-11 2012-12-06 Mitsubishi Electric Corp グラフィカルユーザインターフェイス装置
JP2013049373A (ja) * 2011-08-31 2013-03-14 Nippon Seiki Co Ltd 表示装置
JP2013192202A (ja) * 2012-02-16 2013-09-26 Midori Anzen Co Ltd 作業画像監視システム
JP2015188150A (ja) * 2014-03-26 2015-10-29 株式会社衛星ネットワーク 空撮映像配信システムおよび空撮映像配信方法
JP2015219734A (ja) * 2014-05-19 2015-12-07 住友電気工業株式会社 管理装置、管理方法および管理プログラム
JP2016002808A (ja) * 2014-06-13 2016-01-12 株式会社デンソー 車両用表示装置
JP2016171477A (ja) * 2015-03-13 2016-09-23 株式会社日立製作所 遠隔作業支援装置、モニタリングシステム、および、遠隔作業支援方法
JP2017108252A (ja) * 2015-12-08 2017-06-15 エヌ・ティ・ティ・コミュニケーションズ株式会社 映像提供システム、映像提供方法、端末装置、情報提供方法及びコンピュータプログラム
WO2018193509A1 (ja) * 2017-04-17 2018-10-25 株式会社オプティム 遠隔作業支援システム、遠隔作業支援方法、及びプログラム
JP2019004800A (ja) * 2017-06-26 2019-01-17 株式会社クボタ 作業機に備えられる表示装置
JP2019070930A (ja) * 2017-10-06 2019-05-09 株式会社日立パワーソリューションズ 異常検知装置および異常検知方法
JP2020005168A (ja) * 2018-06-29 2020-01-09 株式会社東芝 カメラ装置、カメラシステム及びサーバ装置
JP2020077907A (ja) * 2018-11-05 2020-05-21 京セラ株式会社 表示装置、3次元表示装置、ヘッドアップディスプレイおよび車両

Patent Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59162475A (ja) * 1983-03-07 1984-09-13 Nippon Denso Co Ltd 自動車用気象表示装置
JPS60176148U (ja) * 1984-05-01 1985-11-21 オムロン株式会社 電子温度計
JPH06195578A (ja) * 1992-12-24 1994-07-15 Toshiba Corp 系統監視装置
JP2005080172A (ja) * 2003-09-03 2005-03-24 Fujitsu Ltd 動画像の蓄積管理方法及び蓄積管理装置
JP2008085533A (ja) * 2006-09-27 2008-04-10 Funai Electric Co Ltd 撮像装置および撮像機能付き携帯電話機
JP2010116086A (ja) * 2008-11-14 2010-05-27 Alpine Electronics Inc 車載用表示装置、表示方法および表示プログラム
JP2012004618A (ja) * 2010-06-14 2012-01-05 Nec Corp 動画再生装置、動画記録再生システム、動画制御方法、及びプログラム
JP2012030611A (ja) * 2010-07-28 2012-02-16 Denso Corp 車両用表示装置
JP2012238149A (ja) * 2011-05-11 2012-12-06 Mitsubishi Electric Corp グラフィカルユーザインターフェイス装置
JP2013049373A (ja) * 2011-08-31 2013-03-14 Nippon Seiki Co Ltd 表示装置
JP2013192202A (ja) * 2012-02-16 2013-09-26 Midori Anzen Co Ltd 作業画像監視システム
JP2015188150A (ja) * 2014-03-26 2015-10-29 株式会社衛星ネットワーク 空撮映像配信システムおよび空撮映像配信方法
JP2015219734A (ja) * 2014-05-19 2015-12-07 住友電気工業株式会社 管理装置、管理方法および管理プログラム
JP2016002808A (ja) * 2014-06-13 2016-01-12 株式会社デンソー 車両用表示装置
JP2016171477A (ja) * 2015-03-13 2016-09-23 株式会社日立製作所 遠隔作業支援装置、モニタリングシステム、および、遠隔作業支援方法
JP2017108252A (ja) * 2015-12-08 2017-06-15 エヌ・ティ・ティ・コミュニケーションズ株式会社 映像提供システム、映像提供方法、端末装置、情報提供方法及びコンピュータプログラム
WO2018193509A1 (ja) * 2017-04-17 2018-10-25 株式会社オプティム 遠隔作業支援システム、遠隔作業支援方法、及びプログラム
JP2019004800A (ja) * 2017-06-26 2019-01-17 株式会社クボタ 作業機に備えられる表示装置
JP2019070930A (ja) * 2017-10-06 2019-05-09 株式会社日立パワーソリューションズ 異常検知装置および異常検知方法
JP2020005168A (ja) * 2018-06-29 2020-01-09 株式会社東芝 カメラ装置、カメラシステム及びサーバ装置
JP2020077907A (ja) * 2018-11-05 2020-05-21 京セラ株式会社 表示装置、3次元表示装置、ヘッドアップディスプレイおよび車両

Similar Documents

Publication Publication Date Title
KR102481894B1 (ko) 전자 장치 및 이를 이용한 화면 공유 방법
JP6231362B2 (ja) プラント監視サーバーおよびプラント監視方法
CN108595275B (zh) 一种提示信息推送的方法及终端
US20140097953A1 (en) Alert Indication Signaling Device and Method
JP2008085785A (ja) モバイル機器システムおよびモバイル機器
CN109587319B (zh) 一种来电处理方法、终端及计算机可读存储介质
WO2017175997A1 (ko) 전자 장치 및 그 제어 방법
JP2005107758A (ja) 保全システムおよび情報共有システム
JP7194286B2 (ja) セッション作成方法及び端末機器
TW201329916A (zh) 指揮分派裝置、方法及用戶介面
WO2018161533A1 (zh) 路况展示方法、装置、计算机设备及计算机可读存储介质
CN109104564B (zh) 一种拍摄提示方法及终端设备
KR20160045241A (ko) 센싱 장치, 환경 대응 장치 및 컴퓨터 프로그램
EP3123355B1 (en) System comprising an audio device and a mobile device for displaying information concerning the audio device
JP6986923B2 (ja) 電子機器制御装置
JP2024029185A (ja) 防災支援システム
JP2022121326A (ja) プログラム、方法、情報処理装置及びシステム
CN110826115B (zh) 一种管理方法、穿戴设备及电子设备
US11460994B2 (en) Information processing apparatus and information processing method
CN111256678A (zh) 导航方法及电子设备
CN107844203B (zh) 一种输入法候选词推荐方法及移动终端
WO2014034718A1 (ja) 電子機器、制御方法、及び制御プログラム
JP6815633B2 (ja) 点検装置、点検方法および点検システム
JP2005332205A (ja) 無線通信システム
JP5954731B2 (ja) 情報通信端末及び情報通信端末用のプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210209

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210209

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210430

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220322

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220615