JP6582626B2 - 送信制御方法、表示端末および送信制御プログラム - Google Patents

送信制御方法、表示端末および送信制御プログラム Download PDF

Info

Publication number
JP6582626B2
JP6582626B2 JP2015133642A JP2015133642A JP6582626B2 JP 6582626 B2 JP6582626 B2 JP 6582626B2 JP 2015133642 A JP2015133642 A JP 2015133642A JP 2015133642 A JP2015133642 A JP 2015133642A JP 6582626 B2 JP6582626 B2 JP 6582626B2
Authority
JP
Japan
Prior art keywords
image
content
file
frames
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015133642A
Other languages
English (en)
Other versions
JP2017016465A (ja
Inventor
奨 古賀
奨 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015133642A priority Critical patent/JP6582626B2/ja
Priority to EP16172851.4A priority patent/EP3113116A1/en
Priority to US15/187,589 priority patent/US20170004652A1/en
Publication of JP2017016465A publication Critical patent/JP2017016465A/ja
Application granted granted Critical
Publication of JP6582626B2 publication Critical patent/JP6582626B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/20Administration of product repair or maintenance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Description

本発明は、送信制御方法、表示端末および送信制御プログラムに関する。
AR(Augmented Reality、拡張現実)技術を用い、移動端末のカメラにより取得された現実空間の画像から所定のマーカを検出し、そのマーカに対応付けられた仮想オブジェクトを現実空間の画像に重畳してディスプレイに表示する技術が知られている(例えば、特許文献1等を参照。)。
このような技術の用途の一つとして、プラントやビル等の設備の点検作業等において、設備の所定箇所に予め貼り付けられたARマーカ(基準物)に基づき、所定の手順等が定められていることを示すARコンテンツのオブジェクトをカメラ画像に重畳して表示し、作業を支援することが行われている。作業者は、オブジェクトの示す手順等の詳細を知りたい場合、オブジェクトを選択して確定する操作を行うことで、作業時の注意事項や設備の詳細情報等が表示される。
更に、作業者による現場での作業が適正に行われているかを遠隔のオフィスにいる管理者がチェックして適切な支援(遠隔支援)が行えるように、作業者の端末においてカメラの画像を録画し、動画ファイルをサーバに送信し、管理者がサーバから動画ファイルを受信して確認することも行われている。なお、動画ファイルとしているのは、作業の現場はデータ通信が行えないオフライン環境であることが多いため、作業中は録画を行い、作業後にデータ通信が行えるオンライン環境に入った場合にまとめて送信を行えるようにするためである。
特開2012−103789号公報
上述したように、作業の現場ではAR技術を用い、作業者はカメラの画像に重畳されて表示されるオブジェクトを確認しながら作業を行うものであるが、遠隔支援のために送信される画像ファイルにはAR技術により重畳されるオブジェクトは含まれていなかった。これは、端末においてカメラの画像とオブジェクトとを合成する処理の負荷が高く、動画のfps(frames per second)値が高い場合は端末における安定した動作が維持できなくなるからである。そのため、端末のOS(Android OS等)の提供する標準的な録画用のメソッド(サービス)を利用し、カメラの画像を録画して動画ファイルを生成して送信していた。
そのため、遠隔のオフィスの管理者は、作業者が実際に見ている画像とは異なる画像を見ることとなり、オブジェクトにより作業手順や注意点等が表示されていた場合に、それらを見ることができないため、適切なチェックや支援が行えないという問題があった。なお、動画ファイルのカメラの画像にはARマーカも含まれているため、画像からARマーカを抽出してオブジェクトを再現できるのではないかと思われるかもしれない。しかし、動画ファイルは伝送効率を向上させるために圧縮処理が行われているため、画質劣化によりARマーカを正確に認識することは困難であり、オブジェクトの正確な再現は困難である。
そこで、一側面では、遠隔支援時における端末の負荷を増大させることなく、遠隔支援を行う側でオブジェクトの画像を再現することのできる技術の提供を目的とする。
一つの態様では、撮像装置により撮像された複数フレームの画像の内、いずれかのフレームの画像に基準物の画像が含まれることを検出した場合に、前記いずれかのフレームの画像に、前記基準物に対応づけられたARコンテンツを重畳表示する表示端末が実行する送信制御方法において、前記複数フレームの画像を格納する第1のファイルを生成し、前記複数フレームの画像の内、前記いずれかのフレームの識別情報と、前記いずれかのフレームに含まれる前記基準物に対応づけられたARコンテンツと、を格納する第2のファイルを生成し、前記識別情報に基づいて前記複数フレームの画像と前記ARコンテンツとの合成処理を実行する情報処理装置に、前記第1のファイルと前記第2のファイルを送信する、処理を前記表示端末が実行する。
遠隔支援時における端末の負荷を増大させることなく、遠隔支援を行う側でオブジェクトの画像を再現することができる。
一実施形態にかかるシステムの構成例を示す図である。 作業者端末のソフトウェア構成例を示す図である。 遠隔支援サーバのソフトウェア構成例を示す図である。 作業者端末のハードウェア構成例を示す図である。 遠隔支援サーバの構成例を示す図である。 第1の処理例の概要を示す図である。 第1の処理例における作業者端末の保持するデータ例を示す図である。 第1の処理例における遠隔支援サーバの保持するデータ例を示す図である。 第1の処理例における作業者端末の処理例を示すフローチャートである。 第1の処理例における動画撮影処理の例を示すフローチャートである。 ARマーカの認識の例を示す図である。 第1の処理例における遠隔支援サーバの処理例を示すフローチャートである。 第2の処理例の概要を示す図である。 第2の処理例における作業者端末の保持するデータ例を示す図である。 第2の処理例における遠隔支援サーバの保持するデータ例を示す図である。 第2の処理例における作業者端末の処理例を示すフローチャートである。 第2の処理例における遠隔支援サーバの処理例を示すフローチャートである。 第3の処理例の概要を示す図である。 第3の処理例における作業者端末の保持するデータ例を示す図である。 第3の処理例における遠隔支援サーバの保持するデータ例を示す図である。 第3の処理例における動画撮影処理の例を示すフローチャートである。 第3の処理例における遠隔支援サーバの処理例を示すフローチャートである。
以下、本発明の好適な実施形態につき説明する。
<構成>
図1は一実施形態にかかるシステムの構成例を示す図である。図1において、作業現場では作業者が使用する作業者端末1のカメラ(撮像装置)により撮影(撮像)が行われるようになっている。撮影される視野内に設備等の各所に付されたARマーカ(基準物)Mが含まれる場合、AR技術により作業者に対してARコンテンツ(オブジェクト)の重畳表示が行われ、作業を支援する。また、作業者端末1は、作業中の撮影画像を録画し、オンライン時に動画ファイル等を遠隔支援サーバ2に送信する。
遠隔支援サーバ2は、オンライン時に作業者端末1にAR表示のための基礎データを提供するとともに、作業者端末1から動画ファイル等を受信する。また、遠隔支援サーバ2は、作業者端末1から受信した動画ファイル等に基づいて、カメラ画像とARコンテンツの画像との合成を行い、合成された動画ファイルをオフィスにおいて管理者が使用する管理者端末3に提供する。
図2は作業者端末1のソフトウェア構成例を示す図である。図2において、作業者端末1は、ARアプリケーション11により実現される機能として、ARコンテンツ生成部12と撮影部13とARマーカ認識部14とARコンテンツ表示部15と動画送信部16とを備えている。
ARコンテンツ生成部12は、オンライン環境において遠隔支援サーバ2からAR表示のための基礎データを取得し、オフライン環境において表示に用いるARコンテンツを事前に生成する機能を有している。撮影部13は、カメラ機能により撮影を行い、録画が指示された場合は録画を伴う動画撮影を行う機能を有している。ARマーカ認識部14は、撮影された画像中からARマーカを認識(ARマーカの特定および配置の認識等)する機能を有している。ARコンテンツ表示部15は、認識されたARマーカに対応するARコンテンツをカメラの画像に重畳して表示する機能を有している。動画送信部16は、録画した動画ファイル等を遠隔支援サーバ2に送信する機能を有している。
図3は遠隔支援サーバ2のソフトウェア構成例を示す図である。図3において、遠隔支援サーバ2は、ARコンテンツ情報提供部21と動画受信部22と動画合成部23と動画送信部24とを備えている。
ARコンテンツ情報提供部21は、作業者端末1からの要求に応じてAR表示のための基礎データ(ARコンテンツ情報)を提供する機能を有している。動画受信部22は、作業者端末1から動画ファイル等を受信する機能を有している。動画合成部23は、作業者端末1から受信した動画ファイル等に基づいて、カメラの画像とARコンテンツの画像との合成を行う機能を有している。動画送信部24は、合成された動画ファイルをオフィスの管理者端末3に送信(管理者端末3からの要求を待って送信等)する機能を有している。
図4は作業者端末1のハードウェア構成例を示す図である。図4において、作業者端末1は、バス100に接続された、マイク101とスピーカ102とカメラ103と表示部104と操作部105とセンサ部106と電力部107と無線部108と近距離通信部109と補助記憶装置110と主記憶装置111とCPU112とドライブ装置113と記録媒体114とを備えている。
マイク101は、ユーザが発した音声や、その他の音を入力する。スピーカ102は、通話機能を使用した際の通話相手先の音声を出力したり、着信音やアプリケーションの効果音等を出力する。カメラ103は、端末に予め設定された画角内の実空間の画像(動画像、静止画像)を撮影する。表示部104は、ユーザに対してOSや各種アプリケーションで設定された画面(端末のOSが標準提供する画面、カメラで撮影した画像、画面に投影されるARのオブジェクトデータ等)を表示する。表示部104の画面はタッチパネルディスプレイ等でもよく、その場合はユーザが画面に対してタップ/フリック/スクロール等を行った際にその入力情報を取得する入力部としての機能も有する。
操作部105は、表示部104の画面に表示された操作ボタンや、端末の外部に設けられたボタン等である。なお、操作ボタンは電源ボタンやホームボタン、音量調節ボタン、戻るボタン等でもよい。センサ部106は、端末のある時点または継続的な位置や向き、動作等を検出する。例として、GPS、加速度センサ、方位センサ、地磁気センサ、ジャイロセンサ等が挙げられる。電力部107は、端末の各部に対して電力を供給する。無線部108は、例えば、基地局(モバイルネットワーク)からの無線信号/通信データをアンテナ等を用いて受信したり、無線信号を基地局に送信する通信データの送受信部である。近距離通信部109は、例えば、赤外線通信やWiFi、Bluetooth(登録商標)等の近距離通信手法を利用し、他の端末等のコンピュータと近距離通信を行うことを可能とする。
補助記憶装置110は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等のストレージである。CPU112からの制御信号に基づき、アプリケーションプログラムやコンピュータに設けられた制御プログラム等を記録し、必要に応じて入出力を行う。主記憶装置111は、CPU112からの指示により補助記憶装置110から読み出された実行プログラム等を格納したり、プログラム実行中に得られる各種情報等を記憶する。CPU112は、OS等の制御プログラム、または主記憶装置に格納されている実行プログラムに基づき、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御することにより、各処理を実現する。ドライブ装置113は、例えば、記憶媒体等を着脱自在にセットでき、セットした記録媒体に記録された各種情報を読み込んだり、所定の情報を記録媒体に書き込むことができる。記録媒体114は、実行プログラム等を格納するコンピュータで読み取り可能な記録媒体である。図2に示した作業者端末1の各部の機能はCPU112によるプログラムの実行により実現される。プログラムは記録媒体で提供されてもよいし、ネットワーク経由で提供されてもよい。
図5は遠隔支援サーバ2の構成例を示す図である。図5において、遠隔支援サーバ2は、システムバス201に接続されたCPU(Central Processing Unit)202、ROM(Read Only Memory)203、RAM(Random Access Memory)204、NVRAM(Non-Volatile Random Access Memory)205を備えている。また、遠隔支援サーバ2は、I/F(Interface)206と、I/F206に接続された、I/O(Input/Output Device)207、HDD(Hard Disk Drive)/フラッシュメモリ208、NIC(Network Interface Card)209と、I/O207に接続されたモニタ210、キーボード211、マウス212等を備えている。I/O207にはCD/DVD(Compact Disk/Digital Versatile Disk)ドライブ等を接続することもできる。図3に示した遠隔支援サーバ2の各部の機能はCPU202によるプログラムの実行により実現される。プログラムは記録媒体で提供されてもよいし、ネットワーク経由で提供されてもよい。
<第1の処理例>
図6は第1の処理例の概要を示す図である。図6において、作業現場の作業者端末1は、作業の過程におけるカメラ動画のファイルとARマーカ認識情報のファイルを生成し、オンライン時に遠隔支援サーバ2に送信する。遠隔支援サーバ2は、作業者端末1から受信したファイルに基づき、カメラ画像とARコンテンツの画像との合成を行い、合成動画のファイルをオフィスにおいて管理者が使用する管理者端末3に提供する。
図7は第1の処理例における作業者端末1の保持するデータ例を示す図である。図7において、作業者端末1は、遠隔支援サーバ2から取得した情報に基づくARコンテンツ管理テーブルと、作業者端末1内で生成するARマーカ認識情報管理テーブル、カメラ動画管理テーブルおよび動画撮影状態管理テーブルとを保持している。
ARコンテンツ管理テーブルは、ARマーカ毎に表示するARコンテンツの情報を管理するためのテーブルであり、「マーカID」「ARコンテンツID」「座標値」「回転角度」「拡縮率」「テクスチャパス」等の項目を含んでいる。「マーカID」は、ARマーカを識別する情報である。「ARコンテンツID」は、ARコンテンツを識別する情報である。「座標値」は、ARコンテンツを表示する位置(認識されたARマーカの位置との相対値)である。「回転角度」は、ARコンテンツを表示する際に画像を回転する角度である。「拡縮率」は、ARコンテンツを表示する際に画像を拡大・縮小する比率である。「テクスチャパス」は、ARコンテンツの画像が保存されているパスである。
ARマーカ認識情報管理テーブルは、認識されたARマーカの情報を保持するためのテーブルであり、「合成対象動画ID」「フレームID」「マーカID」「認識情報」等の項目を含んでいる。「合成対象動画ID」は、ARマーカに対応するARコンテンツを合成する対象となるカメラ動画を識別する情報である。「フレームID」は、ARマーカに対応するARコンテンツを表示するカメラ画像のフレームを識別する、連番またはフレーム毎タイムスタンプ等の情報である。「マーカID」は、認識されたARマーカを識別する情報である。「認識情報」は、ARマーカの認識情報であり、カメラで撮影されたARマーカの傾きや回転角度等を示す情報である。「−」はARマーカの認識情報の取得に失敗し、認識情報が存在しないことを示している。
カメラ動画管理テーブルは、カメラ動画を管理するためのテーブルであり、「カメラ動画ID」「ファイル名」等の項目を含んでいる。「カメラ動画ID」は、カメラ動画を識別する情報である。「ファイル名」は、カメラ動画のファイル名である。
動画撮影状態管理テーブルは、カメラによる動画の撮影状態を管理するテーブルであり、「動画撮影状態」等の項目を含んでいる。「動画撮影状態」は、「true」(動画撮影中)か「false」(動画撮影停止中)となる。
図8は第1の処理例における遠隔支援サーバ2の保持するデータ例を示す図である。図8において、遠隔支援サーバ2は、自ら保持して作業者端末1に提供するARコンテンツ管理テーブルと、作業者端末1からARマーカ認識情報として取得した情報に基づくARマーカ認識情報管理テーブルおよびカメラ動画管理テーブルとを保持している。ARコンテンツ管理テーブル、ARマーカ認識情報管理テーブルおよびカメラ動画管理テーブルの内容は図7に示したのと同様である。
図9は第1の処理例における作業者端末1の処理例を示すフローチャートであり、図10は第1の処理例における動画撮影処理の例を示すフローチャートである。
図9において、作業者端末1は、処理を開始すると、ARアプリケーション11を起動する(ステップS101)。ARアプリケーション11は、起動に際し、カメラ機能も起動し、撮影部13により録画を伴わない通常の撮影を開始する。
起動したARアプリケーション11のARコンテンツ生成部12は、オンライン環境である場合、最新のARコンテンツ情報(ARコンテンツ管理テーブル)等を遠隔支援サーバ2から取得し(ステップS102)、ARコンテンツを生成する(ステップS103)。オンライン環境でない場合、ARコンテンツ生成部12は、以前に取得されているARコンテンツ情報があれば、それに基づいてARコンテンツを生成する。
次いで、ARマーカ認識部14は、撮影画像の中にARマーカ(基準物)を認識するのを待機する(ステップS104)。図11はARマーカの認識の例を示す図である。すなわち、ARマーカ認識部14は、撮影画像内からARマーカMを輪郭により捕捉した上で、輪郭の内部に記録されたパターンによりARマーカIDを特定する。そして、ARマーカMの画像の歪みにより、ARマーカMの3次元的な配置(ARマーカMの傾きや回転角度等)を認識する。
図9に戻り、ARマーカを認識した場合(ステップS104のYes)、ARコンテンツ表示部15は、ARマーカに対応する既に生成済のARコンテンツを撮影画像に重畳して表示する(ステップS105)。
次いで、撮影部13は、動画撮影処理を行う(ステップS106)。動画撮影処理の詳細について、図10に沿って説明する。
図10において、撮影部13は、動画撮影中であるか否かを動画撮影状態管理テーブルから判断し(ステップS111)、処理を分岐する。
動画撮影中でない場合(ステップS111のNo)、撮影部13は、作業者から動画撮影開始の入力があるか否か判断し(ステップS112)、動画撮影開始の入力がある場合(ステップS112のYes)、カメラビューの動画撮影を開始し(ステップS113)、処理を終了する。動画撮影開始の入力がない場合(ステップS112のNo)、撮影部13は、処理を終了する。
動画撮影中である場合(ステップS111のYes)、撮影部13は、作業者から動画撮影停止の入力があるか否か判断する(ステップS114)。動画撮影停止の入力がある場合(ステップS114のYes)、カメラビューの撮影を停止し、所定のファイル名を付して動画を保存し(ステップS115)、処理を終了する。保存したカメラ動画ファイルは、後にオンライン環境になった場合に、作業者の確認のもと、動画送信部16により、ARマーカ認識情報とともに遠隔支援サーバ2に送信される。
動画撮影停止の入力がない場合(ステップS114のNo)、撮影部13は、ARマーカの認識情報があるか否か判断する(ステップS116)。ARマーカの認識情報がある場合(ステップS116のYes)、撮影部13は、カメラビューの現フレームに対応するようにARマーカ認識情報を保存する(ステップS117)。
図9に戻り、上述した動画撮影処理の後、または、ARマーカを認識しなかった場合(ステップS104のNo)、ARアプリケーション11の終了の判断(ステップS107)に移行する。
ARアプリケーション11が終了しない場合(ステップS107のNo)、ARマーカ認識の判断(ステップS104)に戻る。ARアプリケーション11が終了する場合(ステップS107のYes)、ARアプリケーション11を終了する(ステップS108)。
図12は第1の処理例における遠隔支援サーバ2の処理例を示すフローチャートである。図12において、遠隔支援サーバ2は、処理を開始すると、サーバ(サーバ機能)を起動する(ステップS121)。
次いで、動画合成部23は、作業者端末1から動画等(カメラ動画、ARマーカ認識情報)のデータを受信したか否か判断する(ステップS122)。
動画等のデータを受信した場合(ステップS122のYes)、動画合成部23は、合成対象のカメラ動画とARマーカ認識情報があるか否か判断する(ステップS123)。
合成対象のカメラ動画とARマーカ認識情報がある場合(ステップS123のYes)、動画合成部23は、カメラ動画をフレームに分解し(ステップS124)、ARマーカ認識情報に基づいてARコンテンツを生成する(ステップS125)。そして、動画合成部23は、ARマーカ認識情報のフレームIDをもとにカメラ動画のフレーム毎にARコンテンツを合成する(ステップS126)。そして、動画合成部23は、合成したフレームを動画化する(ステップS127)。動画化されたファイルは管理者端末3からの要求に応じて配信され、管理者端末3において閲覧される。
上記の動画合成処理の後、または、動画等のデータを受信していない場合(ステップS122のNo)もしくは合成対象のカメラ動画とARマーカ認識情報がない場合(ステップS123のNo)、サーバの終了の判断(ステップS128)に移行する。
サーバが終了しない場合(ステップS128のNo)、動画等のデータの受信の判断(ステップS122)に戻る。サーバが終了する場合(ステップS128のYes)、サーバを終了する(ステップS129)。
なお、上述した処理例では、作業者端末1から遠隔支援サーバ2に送信されるARマーカ認識情報(ARマーカ認識情報管理テーブルの内容)にARコンテンツ(オブジェクト)の画像データそのものは含まれておらず、ARコンテンツIDが間接的に画像データを示すが、ARコンテンツの画像データそのものを含めてもよい。また、ARマーカ認識情報の認識情報が間接的にARコンテンツの表示位置を示すが、表示位置そのものをARマーカ認識情報に含めてもよい。
以上説明したように、作業者端末1はカメラ動画とARマーカ認識情報を遠隔支援サーバ2に送信するだけでよいため、処理負荷が問題となることはない。また、遠隔支援サーバ2は、ARマーカ認識情報に基づいて正確にARコンテンツを生成することができ、作業者が見ているのと同じタイミングでカメラ動画にARコンテンツを合成することができる。その結果、管理者端末3で閲覧する管理者は、作業者と同じ動画を見ることができ、適切な遠隔支援を行うことができる。
<第2の処理例>
図13は第2の処理例の概要を示す図である。図13において、作業現場の作業者端末1は、作業の過程におけるカメラ動画のファイルと、ARコンテンツ描画有無情報(カメラ動画のフレーム単位に、ARマーカに対応するARコンテンツが表示されるか否かを示す情報)を含むARマーカ認識情報のファイルとを生成し、オンライン時に遠隔支援サーバ2に送信する。遠隔支援サーバ2は、作業者端末1から受信したファイルに基づき、カメラ画像とARコンテンツの画像との合成を行い、合成動画のファイルをオフィスにおいて管理者が使用する管理者端末3に提供する。
図14は第2の処理例における作業者端末1の保持するデータ例を示す図である。図14において、作業者端末1は、遠隔支援サーバ2から取得した情報に基づくARコンテンツ管理テーブルと、作業者端末1内で生成するARマーカ認識情報管理テーブル、カメラ動画管理テーブルおよび動画撮影状態管理テーブルとを保持している。
ARコンテンツ管理テーブルとカメラ動画管理テーブルと動画撮影状態管理テーブルは、図7に示したものと同様である。ARマーカ認識情報管理テーブルは、「非描画対象ARコンテンツID」の項目が加わった以外は図7に示したものと同様である。「非描画対象ARコンテンツID」は、カメラ動画のフレームIDに対応して、マーカIDの示すARマーカに対応するARコンテンツのうちで描画対象とならないARコンテンツを識別する情報である。これは、カメラ画像の中にARコンテンツが含まれないことにより描画対象とならない場合のほか、GPSやビーコンによる位置情報・方位情報に基づいてAR表示を行う場合に、それらの機能がオフとされていることによりAR表示そのものが行われないために描画対象とならない場合も含む。
図15は第2の処理例における遠隔支援サーバ2の保持するデータ例を示す図である。図15において、遠隔支援サーバ2は、自ら保持して作業者端末1に提供するARコンテンツ管理テーブルと、作業者端末1からARマーカ認識情報として取得した情報に基づくARマーカ認識情報管理テーブルおよびカメラ動画管理テーブルとを保持している。ARコンテンツ管理テーブル、ARマーカ認識情報管理テーブルおよびカメラ動画管理テーブルの内容は図14に示したのと同様である。
図16は第2の処理例における作業者端末1の処理例を示すフローチャートである。図16において、作業者端末1は、処理を開始すると、ARアプリケーション11を起動する(ステップS201)。ARアプリケーション11は、起動に際し、カメラ機能も起動し、撮影部13により録画を伴わない通常の撮影を開始する。
起動したARアプリケーション11のARコンテンツ生成部12は、オンライン環境である場合、最新のARコンテンツ情報(ARコンテンツ管理テーブル)等を遠隔支援サーバ2から取得し(ステップS202)、ARコンテンツを生成する(ステップS203)。オンライン環境でない場合、ARコンテンツ生成部12は、以前に取得されているARコンテンツ情報があれば、それに基づいてARコンテンツを生成する。
次いで、ARマーカ認識部14は、撮影画像の中にARマーカ(基準物)を認識するのを待機する(ステップS204)。
次いで、ARマーカを認識した場合(ステップS204のYes)、ARコンテンツ表示部15は、ARマーカに対応する既に生成済のARコンテンツを撮影画像に重畳して表示する(ステップS205)。
次いで、ARコンテンツ表示部15は、カメラ画像の中にARコンテンツが含まれないか、あるいは、GPSやビーコンによる位置情報・方位情報に基づいてAR表示を行う場合にそれらの機能がオフとされていることによりAR表示が行われないかに基づき、ARコンテンツ描画有無情報(フレーム単位の非描画対象ARコンテンツID)を保存する(ステップS206)。
次いで、撮影部13は、動画撮影処理を行う(ステップS207)。動画撮影処理の内容は図10に示したのと同様である。
次いで、動画撮影処理の後、または、ARマーカを認識しなかった場合(ステップS204のNo)、ARアプリケーション11の終了の判断(ステップS208)に移行する。
ARアプリケーション11が終了しない場合(ステップS208のNo)、ARマーカ認識の判断(ステップS204)に戻る。ARアプリケーション11が終了する場合(ステップS208のYes)、ARアプリケーション11を終了する(ステップS209)。
図17は第2の処理例における遠隔支援サーバ2の処理例を示すフローチャートである。図17において、遠隔支援サーバ2は、処理を開始すると、サーバ(サーバ機能)を起動する(ステップS221)。
次いで、動画合成部23は、作業者端末1から動画等(カメラ動画、ARマーカ認識情報)のデータを受信したか否か判断する(ステップS222)。
動画等のデータを受信した場合(ステップS222のYes)、動画合成部23は、合成対象のカメラ動画とARマーカ認識情報があるか否か判断する(ステップS223)。
合成対象のカメラ動画とARマーカ認識情報がある場合(ステップS223のYes)、動画合成部23は、カメラ動画をフレームに分解し(ステップS224)、ARマーカ認識情報に基づいてARコンテンツを生成する(ステップS225)。この際、ARコンテンツ描画有無情報(フレーム単位の非描画対象ARコンテンツID)に基づいて描画対象として有効でないARコンテンツについては生成しない。
次いで、動画合成部23は、ARマーカ認識情報のフレームIDをもとにカメラ動画のフレーム毎に、ARコンテンツ描画有無情報に基づいて描画対象として有効なARコンテンツを合成する(ステップS226)。そして、動画合成部23は、合成したフレームを動画化する(ステップS227)。動画化されたファイルは管理者端末3からの要求に応じて配信され、管理者端末3において閲覧される。
上記の動画合成処理の後、または、動画等のデータを受信していない場合(ステップS222のNo)もしくは合成対象のカメラ動画とARマーカ認識情報がない場合(ステップS223のNo)、サーバの終了の判断(ステップS228)に移行する。
サーバが終了しない場合(ステップS228のNo)、動画等のデータの受信の判断(ステップS222)に戻る。サーバが終了する場合(ステップS228のYes)、サーバを終了する(ステップS229)。
以上説明したように、作業者端末1はカメラ動画とARマーカ認識情報を遠隔支援サーバ2に送信するだけでよいため、処理負荷が問題となることはない。また、遠隔支援サーバ2は、ARマーカ認識情報に基づいて正確にARコンテンツを生成することができ、作業者が見ているのと同じタイミングでカメラ動画にARコンテンツを生成することができる。その結果、管理者端末3で閲覧する管理者は、作業者と同じ動画を見ることができ、適切な遠隔支援を行うことができる。更に、ARコンテンツ描画有無情報に基づいて無駄なARコンテンツの生成および合成を省略でき、遠隔支援サーバ2における処理負荷を低減することができる。
<第3の処理例>
図18は第3の処理例の概要を示す図である。図18において、作業現場の作業者端末1は、作業の過程におけるカメラ動画のファイルとARコンテンツ動画のファイルを生成し、オンライン時に遠隔支援サーバ2に送信する。遠隔支援サーバ2は、作業者端末1から受信したファイルに基づき、カメラ動画とARコンテンツ動画の合成を行い、合成動画のファイルをオフィスにおいて管理者が使用する管理者端末3に提供する。
図19は第3の処理例における作業者端末1の保持するデータ例を示す図である。図19において、作業者端末1は、遠隔支援サーバ2から取得した情報に基づくARコンテンツ管理テーブルと、作業者端末1内で生成するカメラ動画管理テーブル、ARコンテンツ動画管理テーブルおよび動画撮影状態管理テーブルとを保持している。
ARコンテンツ管理テーブルと動画撮影状態管理テーブルは、図7に示したものと同様である。カメラ動画管理テーブルは、「合成対象動画ID」の項目が追加された以外は図7に示したものと同様である。「合成対象動画ID」は、カメラ動画を合成する対象となるARコンテンツ動画を識別する情報である。
ARコンテンツ動画管理テーブルは、ARコンテンツ動画を管理するテーブルであり、「ARコンテンツ動画ID」「ファイル名」「合成対象動画ID」等の項目を含んでいる。「ARコンテンツ動画ID」は、ARコンテンツ動画を識別する情報である。「ファイル名」は、ARコンテンツ動画のファイル名である。「合成対象動画ID」は、ARコンテンツ動画を合成する対象となるカメラ動画を識別する情報である。
図20は第3の処理例における遠隔支援サーバ2の保持するデータ例を示す図である。図20において、遠隔支援サーバ2は、自ら保持して作業者端末1に提供するARコンテンツ管理テーブルと、作業者端末1から取得したカメラ動画とARコンテンツ動画の付随情報に基づくカメラ動画管理テーブルおよびARコンテンツ動画管理テーブルとを保持している。ARコンテンツ管理テーブル、カメラ動画管理テーブルおよびARコンテンツ動画管理テーブルの内容は図19に示したのと同様である。
第3の処理例における作業者端末1の主たる処理は、動画撮影処理を除き、図9と同様である。
図21は第3の処理例における動画撮影処理の例を示すフローチャートである。図21において、撮影部13は、動画撮影中であるか否かを動画撮影状態管理テーブルから判断し(ステップS311)、処理を分岐する。
動画撮影中でない場合(ステップS311のNo)、撮影部13は、作業者から動画撮影開始の入力があるか否か判断し(ステップS312)、動画撮影開始の入力がある場合(ステップS312のYes)、ARビュー(ARコンテンツ画像)とカメラビューの動画撮影を開始し(ステップS313)、処理を終了する。動画撮影開始の入力がない場合(ステップS312のNo)、撮影部13は、処理を終了する。
動画撮影中である場合(ステップS311のYes)、撮影部13は、作業者から動画撮影停止の入力があるか否か判断する(ステップS314)。動画撮影停止の入力がない場合(ステップS314のNo)、撮影部13は、処理を終了する。
動画撮影停止の入力がある場合(ステップS314のYes)、撮影部13は、ARビューとカメラビューの撮影を停止し、所定のファイル名を付して動画を保存し(ステップS315)、処理を終了する。保存したカメラ動画ファイルとARコンテンツ動画ファイルは、後にオンライン環境になった場合に、作業者の確認のもと、動画送信部16により、遠隔支援サーバ2に送信される。
図22は第3の処理例における遠隔支援サーバ2の処理例を示すフローチャートである。図22において、遠隔支援サーバ2は、処理を開始すると、サーバ(サーバ機能)を起動する(ステップS321)。
次いで、動画合成部23は、作業者端末1から動画等(カメラ動画、ARコンテンツ動画)のデータを受信したか否か判断する(ステップS322)。
動画等のデータを受信した場合(ステップS322のYes)、動画合成部23は、合成対象の動画があるか否か判断する(ステップS323)。
合成対象の動画がある場合(ステップS323のYes)、動画合成部23は、動画をフレームに分解し(ステップS324)、フレームIDをもとにカメラ動画のフレームとARコンテンツ動画のフレームを合成する(ステップS325)。そして、動画合成部23は、合成したフレームを動画化する(ステップS326)。動画化されたファイルは管理者端末3からの要求に応じて配信され、管理者端末3において閲覧される。
上記の動画合成処理の後、または、動画等のデータを受信していない場合(ステップS322のNo)もしくは合成対象の動画がない場合(ステップS323のNo)、サーバの終了の判断(ステップS327)に移行する。
サーバが終了しない場合(ステップS327のNo)、動画等のデータの受信の判断(ステップS322)に戻る。サーバが終了する場合(ステップS327のYes)、サーバを終了する(ステップS328)。
以上説明したように、作業者端末1はカメラ動画とARコンテンツ動画を合成することなく遠隔支援サーバ2に送信するだけでよいため、処理負荷が問題となることはない。また、遠隔支援サーバ2は、カメラ動画とARコンテンツ動画を合成することで、作業者が見ているのと同じ動画を生成することができる。その結果、管理者端末3で閲覧する管理者は、作業者と同じ動画を見ることができ、適切な遠隔支援を行うことができる。
<総括>
以上説明したように、本実施形態によれば、遠隔支援時における端末の負荷を増大させることなく、遠隔支援を行う側でオブジェクトの画像を再現することができる。
以上、好適な実施の形態により説明した。ここでは特定の具体例を示して説明したが、特許請求の範囲に定義された広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により限定されるものと解釈してはならない。
カメラ103は「撮像装置」の一例である。ARマーカは「基準物」の一例である。
カメラ動画ファイルは「第1のファイル」の一例である。フレームIDは「フレームの識別情報」の一例である。ARコンテンツ動画ファイルは「第2のファイル」の一例である。ARマーカ認識情報管理テーブル(図7)のマーカIDは「オブジェクトデータ」の一例である。遠隔支援サーバ2は「情報処理装置」の一例である。
以上の説明に関し、更に以下の項を開示する。
(付記1) 撮像装置により撮像された複数フレームの画像の内、基準物の画像が含まれると判定されたフレームの画像に、前記基準物に対応づけて登録されたオブジェクトデータを重畳表示する表示制御方法において、
前記複数フレームの画像を格納する第1のファイルを生成し、
前記複数フレームの画像の内、前記基準物の画像が含まれると判定されたフレームの識別情報と、前記フレームに含まれる基準物に対応づけて登録されたオブジェクトデータと、を格納する第2のファイルを生成し、
前記識別情報に基づいて前記複数フレームの画像と前記オブジェクトデータとの合成処理を実行する情報処理装置に、前記第1のファイルと前記第2のファイルを送信する、
処理をコンピュータが実行することを特徴とする表示制御方法。
(付記2) 前記第2のファイルの格納情報は、前記基準物の画像が含まれると判定されたフレーム内の前記オブジェクトデータの表示位置を含む、
ことを特徴とする付記1に記載の表示制御方法。
(付記3) 前記第2のファイルの格納情報は、描画対象とならない前記オブジェクトデータの情報を含む、
ことを特徴とする付記1に記載の表示制御方法。
(付記4) 撮像装置により撮像された複数フレームの画像の内、基準物の画像が含まれると判定されたフレームの画像に、前記基準物に対応づけて登録されたオブジェクトデータを重畳表示する表示制御方法において、
前記複数フレームの画像を格納する第1のファイルを生成し、
前記複数オブジェクトデータの画像を格納する第2のファイルを生成し、
前記複数フレームの画像と前記オブジェクトデータの画像との合成処理を実行する情報処理装置に、前記第1のファイルと前記第2のファイルを送信する、
処理をコンピュータが実行することを特徴とする表示制御方法。
(付記5) 撮像装置により撮像された複数フレームの画像の内、基準物の画像が含まれると判定されたフレームの画像に、前記基準物に対応づけて登録されたオブジェクトデータを重畳表示する情報処理装置において、
前記複数フレームの画像を格納する第1のファイルを生成する手段と、
前記複数フレームの画像の内、前記基準物の画像が含まれると判定されたフレームの識別情報と、前記フレームに含まれる基準物に対応づけて登録されたオブジェクトデータと、を格納する第2のファイルを生成する手段と、
前記識別情報に基づいて前記複数フレームの画像と前記オブジェクトデータとの合成処理を実行する情報処理装置に、前記第1のファイルと前記第2のファイルを送信する手段と、
を備えたことを特徴とする情報処理装置。
(付記6) 前記第2のファイルの格納情報は、前記基準物の画像が含まれると判定されたフレーム内の前記オブジェクトデータの表示位置を含む、
ことを特徴とする付記5記載の情報処理装置。
(付記7) 前記第2のファイルの格納情報は、描画対象とならない前記オブジェクトデータの情報を含む、
ことを特徴とする付記5記載の情報処理装置。
(付記8) 撮像装置により撮像された複数フレームの画像の内、基準物の画像が含まれると判定されたフレームの画像に、前記基準物に対応づけて登録されたオブジェクトデータを重畳表示する情報処理装置において、
前記複数フレームの画像を格納する第1のファイルを生成する手段と、
前記複数オブジェクトデータの画像を格納する第2のファイルを生成する手段と、
前記複数フレームの画像と前記オブジェクトデータの画像との合成処理を実行する情報処理装置に、前記第1のファイルと前記第2のファイルを送信する手段と、
を備えたことを特徴とする情報処理装置。
(付記9) 撮像装置により撮像された複数フレームの画像の内、基準物の画像が含まれると判定されたフレームの画像に、前記基準物に対応づけて登録されたオブジェクトデータを重畳表示する表示制御プログラムにおいて、
前記複数フレームの画像を格納する第1のファイルを生成し、
前記複数フレームの画像の内、前記基準物の画像が含まれると判定されたフレームの識別情報と、前記フレームに含まれる基準物に対応づけて登録されたオブジェクトデータと、を格納する第2のファイルを生成し、
前記識別情報に基づいて前記複数フレームの画像と前記オブジェクトデータとの合成処理を実行する情報処理装置に、前記第1のファイルと前記第2のファイルを送信する、
処理をコンピュータに実行させる表示制御プログラム。
(付記10) 前記第2のファイルの格納情報は、前記基準物の画像が含まれると判定されたフレーム内の前記オブジェクトデータの表示位置を含む、
付記9記載の表示制御プログラム。
(付記11) 前記第2のファイルの格納情報は、描画対象とならない前記オブジェクトデータの情報を含む、
付記9記載の表示制御プログラム。
(付記12) 撮像装置により撮像された複数フレームの画像の内、基準物の画像が含まれると判定されたフレームの画像に、前記基準物に対応づけて登録されたオブジェクトデータを重畳表示する表示制御プログラムにおいて、
前記複数フレームの画像を格納する第1のファイルを生成し、
前記複数オブジェクトデータの画像を格納する第2のファイルを生成し、
前記複数フレームの画像と前記オブジェクトデータの画像との合成処理を実行する情報処理装置に、前記第1のファイルと前記第2のファイルを送信する、
処理をコンピュータに実行させる表示制御プログラム。
1 作業者端末
11 ARアプリケーション
12 ARコンテンツ生成部
13 撮影部
14 ARマーカ認識部
15 ARコンテンツ表示部
16 動画送信部
2 遠隔支援サーバ
21 ARコンテンツ情報提供部
22 動画受信部
23 動画合成部
24 動画送信部
3 管理者端末

Claims (8)

  1. 撮像装置により撮像された複数フレームの画像の内、いずれかのフレームの画像に基準物の画像が含まれることを検出した場合に、前記いずれかのフレームの画像に、前記基準物に対応づけられたARコンテンツを重畳表示する表示端末が実行する送信制御方法において、
    前記複数フレームの画像を格納する第1のファイルを生成し、
    前記複数フレームの画像の内、前記いずれかのフレームの識別情報と、前記いずれかのフレームに含まれる前記基準物に対応づけられたARコンテンツと、を格納する第2のファイルを生成し、
    前記識別情報に基づいて前記複数フレームの画像と前記ARコンテンツとの合成処理を実行する情報処理装置に、前記第1のファイルと前記第2のファイルを送信する、
    処理を前記表示端末が実行することを特徴とする送信制御方法。
  2. 前記第2のファイルの格納情報は、前記いずれかのフレーム内の前記ARコンテンツの表示位置を含む、
    ことを特徴とする請求項1に記載の送信制御方法。
  3. 前記第2のファイルの格納情報は、描画対象とならない前記ARコンテンツの情報を含む、
    ことを特徴とする請求項1に記載の送信制御方法。
  4. 撮像装置により撮像された複数フレームの画像の内、いずれかのフレームの画像に基準物の画像が含まれることを検出した場合に、前記いずれかのフレームの画像に、前記基準物に対応づけられたARコンテンツを重畳表示する表示端末が実行する送信制御方法において、
    前記複数フレームの画像を格納する第1のファイルを生成し、
    前記複数のARコンテンツの画像を格納する第2のファイルを生成し、
    前記複数フレームの画像と前記ARコンテンツの画像との合成処理を実行する情報処理装置に、前記第1のファイルと前記第2のファイルを送信する、
    処理を前記表示端末が実行することを特徴とする送信制御方法。
  5. 撮像装置により撮像された複数フレームの画像の内、いずれかのフレームの画像に基準物の画像が含まれることを検出した場合に、前記いずれかのフレームの画像に、前記基準物に対応づけられたARコンテンツを重畳表示する表示端末において、
    前記複数フレームの画像を格納する第1のファイルを生成する手段と、
    前記複数フレームの画像の内、前記いずれかのフレームの識別情報と、前記いずれかのフレームに含まれる前記基準物に対応づけられたARコンテンツと、を格納する第2のファイルを生成する手段と、
    前記識別情報に基づいて前記複数フレームの画像と前記ARコンテンツとの合成処理を実行する情報処理装置に、前記第1のファイルと前記第2のファイルを送信する手段と、を備えたことを特徴とする表示端末
  6. 撮像装置により撮像された複数フレームの画像の内、いずれかのフレームの画像に基準物の画像が含まれることを検出した場合に、前記いずれかのフレームの画像に、前記基準物に対応づけられたARコンテンツを重畳表示する表示端末において、
    前記複数フレームの画像を格納する第1のファイルを生成する手段と、
    前記複数のARコンテンツの画像を格納する第2のファイルを生成する手段と、
    前記複数フレームの画像と前記ARコンテンツの画像との合成処理を実行する情報処理装置に、前記第1のファイルと前記第2のファイルを送信する手段と、
    を備えたことを特徴とする表示端末
  7. 撮像装置により撮像された複数フレームの画像の内、いずれかのフレームの画像に基準物の画像が含まれることを検出した場合に、前記いずれかのフレームの画像に、前記基準物に対応づけられたARコンテンツを重畳表示する表示端末が実行する送信制御プログラムにおいて、
    前記複数フレームの画像を格納する第1のファイルを生成し、
    前記複数フレームの画像の内、前記いずれかのフレームの識別情報と、前記いずれかのフレームに含まれる前記基準物に対応づけられたARコンテンツと、を格納する第2のファイルを生成し、
    前記識別情報に基づいて前記複数フレームの画像と前記ARコンテンツとの合成処理を実行する情報処理装置に、前記第1のファイルと前記第2のファイルを送信する、
    処理を前記表示端末に実行させる送信制御プログラム。
  8. 撮像装置により撮像された複数フレームの画像の内、いずれかのフレームの画像に基準物の画像が含まれることを検出した場合に、前記いずれかのフレームの画像に、前記基準物に対応づけられたARコンテンツを重畳表示する表示端末が実行する送信制御プログラムにおいて、
    前記複数フレームの画像を格納する第1のファイルを生成し、
    前記複数のARコンテンツの画像を格納する第2のファイルを生成し、
    前記複数フレームの画像と前記ARコンテンツの画像との合成処理を実行する情報処理装置に、前記第1のファイルと前記第2のファイルを送信する、
    処理を前記表示端末に実行させる送信制御プログラム。
JP2015133642A 2015-07-02 2015-07-02 送信制御方法、表示端末および送信制御プログラム Active JP6582626B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015133642A JP6582626B2 (ja) 2015-07-02 2015-07-02 送信制御方法、表示端末および送信制御プログラム
EP16172851.4A EP3113116A1 (en) 2015-07-02 2016-06-03 Display control method and information processing apparatus
US15/187,589 US20170004652A1 (en) 2015-07-02 2016-06-20 Display control method and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015133642A JP6582626B2 (ja) 2015-07-02 2015-07-02 送信制御方法、表示端末および送信制御プログラム

Publications (2)

Publication Number Publication Date
JP2017016465A JP2017016465A (ja) 2017-01-19
JP6582626B2 true JP6582626B2 (ja) 2019-10-02

Family

ID=56360157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015133642A Active JP6582626B2 (ja) 2015-07-02 2015-07-02 送信制御方法、表示端末および送信制御プログラム

Country Status (3)

Country Link
US (1) US20170004652A1 (ja)
EP (1) EP3113116A1 (ja)
JP (1) JP6582626B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10311617B2 (en) * 2015-08-25 2019-06-04 Ns Solutions Corporation Operation support device, operation support method, and non-transitory computer readable recording medium
US10110871B2 (en) * 2016-10-31 2018-10-23 Disney Enterprises, Inc. Recording high fidelity digital immersive experiences through off-device computation
CN107168619B (zh) * 2017-03-29 2023-09-19 腾讯科技(深圳)有限公司 用户生成内容处理方法和装置
JP6822316B2 (ja) * 2017-05-23 2021-01-27 株式会社リコー 情報表示システム
CN107395636A (zh) * 2017-08-25 2017-11-24 苏州市千尺浪信息技术服务有限公司 一种智能化远程办公系统
US10650597B2 (en) * 2018-02-06 2020-05-12 Servicenow, Inc. Augmented reality assistant
CN108965743A (zh) * 2018-08-21 2018-12-07 百度在线网络技术(北京)有限公司 基于前后景分割的视频合成方法、装置及可读存储介质
CN111770300B (zh) * 2020-06-24 2022-07-05 Oook(北京)教育科技有限责任公司 一种会议信息处理的方法及虚拟现实头戴设备
CN112804545B (zh) * 2021-01-07 2022-08-09 中电福富信息科技有限公司 一种基于直播流抽帧算法构建慢直播处理方法和系统

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4253567B2 (ja) * 2003-03-28 2009-04-15 オリンパス株式会社 データオーサリング処理装置
JP2007089136A (ja) * 2005-08-23 2007-04-05 Ricoh Co Ltd 画像処理方法、画像処理プログラム、記録媒体及び複合装置
US20100257252A1 (en) * 2009-04-01 2010-10-07 Microsoft Corporation Augmented Reality Cloud Computing
JP5259519B2 (ja) * 2009-07-31 2013-08-07 日本放送協会 デジタル放送受信機、送信機及び端末装置
US8405658B2 (en) * 2009-09-14 2013-03-26 Autodesk, Inc. Estimation of light color and direction for augmented reality applications
JP5480777B2 (ja) 2010-11-08 2014-04-23 株式会社Nttドコモ オブジェクト表示装置及びオブジェクト表示方法
EP2657882A1 (en) * 2012-04-27 2013-10-30 Layar B.V. Reference image slicing
JP6010373B2 (ja) * 2012-07-21 2016-10-19 日本放送協会 サブ情報提示装置、映像提示装置及びプログラム
US20150206348A1 (en) * 2012-09-07 2015-07-23 Hitachi Maxell, Ltd. Reception device
US10110805B2 (en) * 2012-12-06 2018-10-23 Sandisk Technologies Llc Head mountable camera system
US9697431B2 (en) * 2013-08-16 2017-07-04 Conduent Business Services, Llc Mobile document capture assist for optimized text recognition
JP6314394B2 (ja) * 2013-09-13 2018-04-25 富士通株式会社 情報処理装置、設定方法、設定プログラム、システムおよび管理装置
JP6176041B2 (ja) * 2013-10-02 2017-08-09 富士ゼロックス株式会社 情報処理装置及びプログラム

Also Published As

Publication number Publication date
EP3113116A1 (en) 2017-01-04
JP2017016465A (ja) 2017-01-19
US20170004652A1 (en) 2017-01-05

Similar Documents

Publication Publication Date Title
JP6582626B2 (ja) 送信制御方法、表示端末および送信制御プログラム
US20230037595A1 (en) Image management system, image management method, and computer program product
JP6798019B2 (ja) パノラマ画像の表示制御方法、装置及び記憶媒体
EP3301909B1 (en) Communication management apparatus, communication system, communication management method, and carrier means
CN111243632B (zh) 多媒体资源的生成方法、装置、设备及存储介质
CN107885533B (zh) 管理组件代码的方法及装置
US20180286098A1 (en) Annotation Transfer for Panoramic Image
US10163266B2 (en) Terminal control method, image generating method, and terminal
JP2020507136A (ja) Vrオブジェクトの合成方法、装置、プログラム及び記録媒体
US20130222516A1 (en) Method and apparatus for providing a video call service
EP3941037A1 (en) Editing template generating method and apparatus, electronic device, and storage medium
EP3962090A1 (en) Communication terminal, image communication system, method for displaying image, and carrier means
US20160284130A1 (en) Display control method and information processing apparatus
JP6721004B2 (ja) 画像管理システム、及び画像管理方法
EP3151541B1 (en) Image management system, image communication system, method for controlling display of captured image, and carrier means
JP6524706B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
JP2016194783A (ja) 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム
CN110673732A (zh) 场景共享方法及装置、系统、电子设备和存储介质
CN108712604B (zh) 一种全景拍摄方法及移动终端
KR20140129631A (ko) 휴대 단말기에서 이미지 데이터를 생성하는 장치 및 방법
CN110708582B (zh) 同步播放的方法、装置、电子设备及介质
EP3703352A1 (en) Intermediary terminal, communication system, input system, intermediation control method, and carrier means
US20240112422A1 (en) Communication management server, communication system, and method for managing communication
CN109660450B (zh) 消息自动回复方法、装置、终端、服务器及存储介质
JP6950548B2 (ja) 送信プログラム、方法及び装置、並びに画像合成プログラム、方法及び装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190819

R150 Certificate of patent or registration of utility model

Ref document number: 6582626

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150