JP2015115723A - Video instruction method capable of superposing instruction picture on imaged moving picture, system, terminal, and program - Google Patents

Video instruction method capable of superposing instruction picture on imaged moving picture, system, terminal, and program Download PDF

Info

Publication number
JP2015115723A
JP2015115723A JP2013255496A JP2013255496A JP2015115723A JP 2015115723 A JP2015115723 A JP 2015115723A JP 2013255496 A JP2013255496 A JP 2013255496A JP 2013255496 A JP2013255496 A JP 2013255496A JP 2015115723 A JP2015115723 A JP 2015115723A
Authority
JP
Japan
Prior art keywords
terminal
still image
instruction
captured
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013255496A
Other languages
Japanese (ja)
Other versions
JP6192107B2 (en
Inventor
大輔 荒井
Daisuke Arai
大輔 荒井
智彦 大岸
Tomohiko Ogishi
智彦 大岸
小林 達也
Tatsuya Kobayashi
達也 小林
智弘 辻
Toshihiro Tsuji
智弘 辻
加藤 晴久
Haruhisa Kato
晴久 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2013255496A priority Critical patent/JP6192107B2/en
Publication of JP2015115723A publication Critical patent/JP2015115723A/en
Application granted granted Critical
Publication of JP6192107B2 publication Critical patent/JP6192107B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a video instruction method and the like for performing an instruction on video imaged in a camera in one terminal, from another terminal by using a picture without using a marker or a registered object picture.SOLUTION: A video instruction method includes: a first step of a first terminal sequentially transmitting a moving picture imaged by a camera to a second terminal; a second step of the second terminal displaying the received imaged moving picture on a display to allow a user to write an instruction still picture for the imaged moving picture; a third step of the second terminal transmitting the instruction still picture written by the user and an imaged still picture obtained by trimming the imaged moving picture as a still picture from the imaged moving picture in a predetermined range including the instruction still picture, to the first terminal; and a fourth step of the first terminal performing matching of the imaged moving picture imaged by the camera and the imaged still picture before superposing the instruction still picture on matched part of the imaged moving picture to display it on the display.

Description

本発明は、端末間のオンラインビデオサービスの技術に関する。   The present invention relates to a technique of online video service between terminals.

近年、スマートフォンやタブレット等の端末の普及に伴って、地理的に離れた端末間で、ネットワークを介したオンラインビデオサービスが提供されている(例えば非特許文献1参照)。このサービスによれば、例えば現場作業の用途として、現場作業員が持つ端末で撮影された映像を、遠隔の作業管理者へリアルタイムに送信することができる。これに対し、作業管理者は、映像でその作業現場の状況を認識し、音声で指示することができる。   In recent years, with the spread of terminals such as smartphones and tablets, online video services via a network have been provided between geographically distant terminals (see, for example, Non-Patent Document 1). According to this service, for example, as an application for field work, an image captured by a terminal of a field worker can be transmitted to a remote work manager in real time. On the other hand, the work manager can recognize the situation at the work site by video and can give an instruction by voice.

図1は、オンラインビデオサービスのシステム構成図である。   FIG. 1 is a system configuration diagram of an online video service.

図1のシステムによれば、携帯電話機やスマートフォンのような端末が、撮影した映像データを、ネットワークを介してリアルタイムに他方の端末へ、ストリーミングで伝送している。近年、携帯端末のようなポータブル型機器でも、HD(High-Definition)クラスの映像を撮影することができる。   According to the system of FIG. 1, a terminal such as a mobile phone or a smartphone transmits captured video data to the other terminal in a streaming manner via a network. In recent years, HD (High-Definition) class images can be taken even by portable devices such as portable terminals.

図1によれば、端末1は、現場作業員(被指示者)によって所持され、搭載されたカメラによってその映像が撮影される。一方で、端末2は、作業管理者(指示者)によって所持される。そして、端末1は、アクセスネットワーク及びインターネットを介して、その映像データを端末2へリアルタイムに送信する。端末2は、受信した映像データをディスプレイに再生することによって、作業管理者に対し、現場作業員の状況を視認させることができる。   According to FIG. 1, the terminal 1 is carried by a field worker (instructed person), and the video is photographed by a mounted camera. On the other hand, the terminal 2 is possessed by a work manager (instructor). Then, the terminal 1 transmits the video data to the terminal 2 in real time via the access network and the Internet. The terminal 2 can make the work manager visually recognize the situation of the field worker by reproducing the received video data on the display.

しかしながら、作業管理者にとって、音声だけでは、現場作業員に対して明確に指示できない場合も多い。例えば、作業管理者としては、現場の多種多様な機器や操作部分の位置を、現場作業員へ映像で指示することできれば望ましい。   However, there are many cases where the work manager cannot clearly give instructions to the field worker by voice alone. For example, it is desirable for a work manager to be able to instruct the on-site worker with the position of various equipment and operation parts on the site.

従来、現場作業員が、自ら所持する端末によって撮影した静止画像を、作業管理者の端末へ送信し、これに対し、作業管理者が指示情報を重畳した静止画像を、現場作業員の端末へ送信する技術がある(例えば非特許文献2参照)。これによって、作業管理者は、音声以外の静止画像によって現場作業員へ指示することができる。   Conventionally, a field worker sends a still image captured by a terminal that he / she owns to the work manager's terminal, and on the other hand, a still image on which the work manager superimposes instruction information is transmitted to the field worker's terminal. There is a technique for transmitting (see, for example, Non-Patent Document 2). As a result, the work manager can instruct the field worker using a still image other than sound.

また、映像上の所定位置を特定するために、拡張現実感(AR(Augmented Reality))の技術を適用することもできる(例えば非特許文献3、4参照)。映像の中からARマーカを画像認識することよって、その位置を特定する。また、ARマーカを用いることなく、多数のオブジェクト画像の中から、その映像に写るオブジェクトを検出するマーカレス型・物体認識方式を用いることもできる。   Also, augmented reality (AR) technology can be applied to specify a predetermined position on the video (see, for example, Non-Patent Documents 3 and 4). The position of the AR marker is identified by recognizing the AR marker from the video. Further, it is possible to use a markerless type / object recognition method for detecting an object appearing in the video from a large number of object images without using an AR marker.

「Skype」、[online]、[平成25年11月13日検索]、インターネット<URL:http://www.skype.com/ja/>"Skype", [online], [searched November 13, 2013], Internet <URL: http://www.skype.com/en/> 構造計画研究所、「Remote Guideware」、[online]、[平成25年11月13日検索]、インターネット<http://www4.kke.co.jp/guideware/>Structural Planning Laboratory, “Remote Guideware”, [online], [searched on November 13, 2013], Internet <http://www4.kke.co.jp/guideware/> 富士通、「ARを利用した作業支援技術」、[online]、[平成25年11月13日検索]、インターネット<http://jp.fujitsu.com/solutions/industry/nextvalue/technology/tec_ar.html>Fujitsu, "work support technology using AR", [online], [searched on November 13, 2013], Internet <http://jp.fujitsu.com/solutions/industry/nextvalue/technology/tec_ar.html > NTT技研、「ARを用いた設備管理業務システム」、[online]、[平成25年11月13日検索]、インターネット<http://www.ntt.co.jp/journal/1302/files/jn201302042.pdf>NTT Giken, "Equipment management business system using AR", [online], [searched on November 13, 2013], Internet <http://www.ntt.co.jp/journal/1302/files/jn201302042 .pdf> 「カメラキャリブレーションと3次元再構成」、[online]、[平成25年12月10日検索]、インターネット<http://opencv.jp/opencv-2svn/cpp/camera_calibration_and_3d_reconstruction.html>“Camera calibration and 3D reconstruction”, [online], [Search on December 10, 2013], Internet <http://opencv.jp/opencv-2svn/cpp/camera_calibration_and_3d_reconstruction.html> 「3次元幾何解析」、[online]、[平成25年12月10日検索]、インターネット<http://www.ieice-hbkb.org/files/02/02gun_02hen_03.pdf>"3D Geometric Analysis", [online], [December 10, 2013 search], Internet <http://www.ieice-hbkb.org/files/02/02gun_02hen_03.pdf>

しかしながら、非特許文献2に記載の技術によれば、現場作業員の端末に搭載されたカメラを固定しておく必要がある。撮影位置が動いた場合、作業管理者から送信された静止画像と位置のずれを生じ、現場作業員にとって、密集した機器や操作部分に対して指示された位置を認識することができない場合もある。   However, according to the technique described in Non-Patent Document 2, it is necessary to fix the camera mounted on the terminal of the field worker. If the shooting position moves, the position may be different from that of the still image sent from the work manager, and the site worker may not be able to recognize the specified position for the dense equipment or operation part. .

非特許文献3,4に記載の技術によれば、指示画像を重畳配置する映像上の位置を特定するために、特殊なパターンが印刷されたARマーカを必要とする。機器や操作部分に予めARマーカを貼り付けることは、極めて手間がかかる。   According to the techniques described in Non-Patent Documents 3 and 4, an AR marker on which a special pattern is printed is required to specify the position on the video on which the instruction image is superimposed. Pasting the AR marker in advance on the device or the operation part is extremely time-consuming.

また、マーカレス型・物体認識方式の技術によれば、予め多数のオブジェクト画像を事前登録しておく必要がある。勿論、映像に写る対象物と、オブジェクト画像との形状が類似する場合、誤ったオブジェクト画像を対応付けてしまう場合もある。   Further, according to the technique of the markerless type / object recognition method, it is necessary to register a large number of object images in advance. Of course, in the case where the object image and the object image are similar in shape, the wrong object image may be associated.

そこで、本発明は、マーカや登録オブジェクト画像を用いることなく、一方の端末のカメラに写る映像に対して、他方の端末から画像的に指示することができる映像指示方法、システム、端末及びプログラムを提供することを目的とする。   Therefore, the present invention provides a video instruction method, system, terminal, and program capable of instructing an image captured from the camera of one terminal imagewise from the other terminal without using a marker or a registered object image. The purpose is to provide.

本発明によれば、ディスプレイ及びカメラを有する第1の端末と、ディスプレイを有する第2の端末とが、ネットワークを介して接続されたシステムにおける映像指示方法において、
第1の端末が、カメラによる撮影動画像を逐次、第2の端末へ送信する第1のステップと、
第2の端末が、受信した撮影動画像をディスプレイに表示し、当該撮影動画像に対する指示静止画像をユーザに書き込ませる第2のステップと、
第2の端末が、ユーザに書き込まれた指示静止画像と、当該指示静止画像を含む所定範囲で撮影動画像を静止画像としてトリミングした撮影静止画像とを、第1の端末へ送信する第3のステップと、
第1の端末が、カメラによって撮影された撮影動画像と撮影静止画像とをマッチングさせ、一致した部分の撮影動画像に指示静止画像を重畳させてディスプレイに表示する第4のステップと
を有することを特徴とする。
According to the present invention, in a video instruction method in a system in which a first terminal having a display and a camera and a second terminal having a display are connected via a network,
A first step in which a first terminal sequentially transmits a moving image captured by a camera to a second terminal;
A second step in which the second terminal displays the received captured moving image on a display and causes the user to write an instruction still image for the captured moving image;
The second terminal transmits the instruction still image written by the user and the captured still image obtained by trimming the captured moving image as a still image within a predetermined range including the instruction still image to the first terminal. Steps,
The first terminal includes a fourth step of matching the captured moving image captured by the camera with the captured still image, and displaying the instruction still image on the display by superimposing the instruction still image on the captured moving image of the matched portion. It is characterized by.

本発明の映像指示方法における他の実施形態によれば、
第4のステップについて、
撮影静止画像を射影変換(透視投影変換)又は姿勢変換させながら撮影動画像にマッチングさせ、マッチングした際の射影変換行列又は姿勢変換行列を算出し、
指示静止画像を射影変換行列又は姿勢変換行列によって変換した画像を、撮影動画像に重畳させて表示することも好ましい。
According to another embodiment of the video instruction method of the present invention,
For the fourth step,
Matching a captured moving image with projective transformation (perspective projection transformation) or posture transformation while calculating a projection transformation matrix or posture transformation matrix at the time of matching,
It is also preferable to display an image obtained by converting the instruction still image by the projection conversion matrix or the attitude conversion matrix so as to be superimposed on the captured moving image.

本発明の映像指示方法における他の実施形態によれば、
第1のステップについて、第1の端末は、撮影動画像を、所定時間幅で間引いたフレームのみを、第2の端末へ送信することも好ましい。
According to another embodiment of the video instruction method of the present invention,
Regarding the first step, it is also preferable that the first terminal transmits to the second terminal only a frame obtained by thinning the captured moving image by a predetermined time width.

本発明の映像指示方法における他の実施形態によれば、
第1のステップについて、撮影動画像は、動き補償フレーム間予測方式の基準となるI(Intra-picture)フレームのみを、第2の端末へ送信することも好ましい。
According to another embodiment of the video instruction method of the present invention,
Regarding the first step, it is also preferable that the captured moving image transmits only an I (Intra-picture) frame, which is a reference for the motion compensation interframe prediction method, to the second terminal.

本発明の映像指示方法における他の実施形態によれば、
第1のステップについて、第1の端末は、Iフレームのデータレートを、1つのGOP(Group Of Pictures)のデータレート以下であって比較的高いレートに設定することも好ましい。
According to another embodiment of the video instruction method of the present invention,
Regarding the first step, it is also preferable that the first terminal sets the data rate of the I frame to a relatively high rate that is equal to or lower than the data rate of one GOP (Group Of Pictures).

本発明の映像指示方法における他の実施形態によれば、
撮影静止画像は、マッチングのための特徴量画像、又は、低データ量のための解像度圧縮画像であり、
指示静止画像は、低データ量のための解像度圧縮画像である
ことも好ましい。
According to another embodiment of the video instruction method of the present invention,
The captured still image is a feature amount image for matching or a resolution-compressed image for low data amount,
The instruction still image is also preferably a resolution-compressed image for a low data amount.

本発明の映像指示方法における他の実施形態によれば、
第2の端末に搭載されたディスプレイは、タッチパネルディスプレイであって、
第2のステップについて、第2の端末は、タッチパネルディスプレイ上でユーザに指によって描かれた画像を指示静止画像とする
ことも好ましい。
According to another embodiment of the video instruction method of the present invention,
The display mounted on the second terminal is a touch panel display,
About a 2nd step, it is also preferable that a 2nd terminal makes an instruction | indication still image the image drawn with the finger | toe to the user on the touch panel display.

本発明の映像指示方法における他の実施形態によれば、
第2の端末は、ディスプレイに表示された撮影動画像に、ユーザによって描かせるタッチペン入力装置を更に接続しており、
第2のステップについて、第2の端末は、タッチペンによってユーザに描かれた画像を指示静止画像とする
ことも好ましい。
According to another embodiment of the video instruction method of the present invention,
The second terminal is further connected to a touch pen input device that allows the user to draw the captured moving image displayed on the display,
About a 2nd step, it is also preferable that a 2nd terminal makes an instruction | indication still image the image drawn by the user with the touch pen.

本発明の映像指示方法における他の実施形態によれば、
第4のステップについて、第1の端末は、AR(拡張現実、Augmented Reality)のマーカレス型・物体認識方式を適用したものであることも好ましい。
According to another embodiment of the video instruction method of the present invention,
Regarding the fourth step, it is also preferable that the first terminal applies an AR (Augmented Reality) markerless type object recognition method.

本発明によれば、ディスプレイ及びカメラを有する第1の端末と、ディスプレイを有する第2の端末とが、ネットワークを介して接続された映像指示システムにおいて、
第1の端末は、
カメラによる撮影動画像を逐次、第2の端末へ送信する撮影動画像送信手段と、
カメラによって撮影された撮影動画像と、第2の端末から受信した撮影静止画像とをマッチングさせ、一致した部分の撮影動画像に、第2の端末から受信した指示静止画像を重畳させてディスプレイに表示する映像表示制御手段と
を有し、
第2の端末は、
受信した撮影動画像をディスプレイに表示し、当該撮影動画像に対する指示静止画像をユーザに書き込ませる指示静止画像入力手段と、
ユーザに書き込まれた指示静止画像と、当該指示静止画像を含む所定範囲で撮影動画像を静止画像としてトリミングした撮影静止画像とを、第1の端末へ送信する指示静止画像送信手段と
を有することを特徴とする。
According to the present invention, in a video instruction system in which a first terminal having a display and a camera and a second terminal having a display are connected via a network,
The first terminal is
Shooting moving image transmitting means for sequentially transmitting a moving image captured by the camera to the second terminal;
The captured moving image captured by the camera is matched with the captured still image received from the second terminal, and the instruction still image received from the second terminal is superimposed on the captured moving image of the matched portion on the display. Video display control means for displaying,
The second terminal
An instruction still image input means for displaying the received captured moving image on a display and causing the user to write an instruction still image for the captured moving image;
Instructed still image transmission means for transmitting an instruction still image written by a user and a captured still image obtained by trimming a captured moving image as a still image within a predetermined range including the instruction still image to the first terminal. It is characterized by.

本発明によれば、ディスプレイ及びカメラを搭載した端末において、
カメラによる撮影動画像を逐次、相手方端末へ送信する撮影動画像送信手段と、
相手方端末から受信した撮影動画像をディスプレイに表示し、当該撮影動画像に対する指示静止画像をユーザに書き込ませる指示静止画像入力手段と、
ユーザに書き込まれた指示静止画像と、当該指示静止画像を含む所定範囲で撮影動画像を静止画像としてトリミングした撮影静止画像とを、相手方端末へ送信する指示静止画像送信手段と、
カメラによって撮影された撮影動画像と、相手方端末から受信した撮影静止画像とをマッチングさせ、一致した部分の撮影動画像に、相手方端末から受信した指示静止画像を重畳させてディスプレイに表示する映像表示制御手段と
を有することを特徴とする。
According to the present invention, in a terminal equipped with a display and a camera,
Shooting moving image transmission means for sequentially transmitting a moving image captured by the camera to the counterpart terminal;
An instruction still image input means for displaying a captured moving image received from a counterpart terminal on a display and for allowing a user to write an instruction still image for the captured moving image;
An instruction still image transmitting means for transmitting an instruction still image written by a user and a captured still image obtained by trimming a captured moving image as a still image within a predetermined range including the instruction still image to a counterpart terminal;
Video display that matches the captured moving image captured by the camera with the captured still image received from the other party's terminal, and superimposes the indicated still image received from the other party's terminal on the matching moving image. And a control means.

本発明によれば、ディスプレイ及びカメラを搭載した端末に搭載されたコンピュータを機能させるプログラムにおいて、
カメラによる撮影動画像を逐次、相手方端末へ送信する撮影動画像送信手段と、
相手方端末から受信した撮影動画像をディスプレイに表示し、当該撮影動画像に対する指示静止画像をユーザに書き込ませる指示静止画像入力手段と、
ユーザに書き込まれた指示静止画像と、当該指示静止画像を含む所定範囲で撮影動画像を静止画像としてトリミングした撮影静止画像とを、相手方端末へ送信する指示静止画像送信手段と、
カメラによって撮影された撮影動画像と、相手方端末から受信した撮影静止画像とをマッチングさせ、一致した部分の撮影動画像に、相手方端末から受信した指示静止画像を重畳させてディスプレイに表示する映像表示制御手段と
してコンピュータを機能させることを特徴とする。
According to the present invention, in a program for causing a computer installed in a terminal equipped with a display and a camera to function,
Shooting moving image transmission means for sequentially transmitting a moving image captured by the camera to the counterpart terminal;
An instruction still image input means for displaying a captured moving image received from a counterpart terminal on a display and for allowing a user to write an instruction still image for the captured moving image;
An instruction still image transmitting means for transmitting an instruction still image written by a user and a captured still image obtained by trimming a captured moving image as a still image within a predetermined range including the instruction still image to a counterpart terminal;
Video display that matches the captured moving image captured by the camera with the captured still image received from the other party's terminal, and superimposes the indicated still image received from the other party's terminal on the matching moving image. A computer is made to function as a control means.

本発明の映像指示方法、システム、端末及びプログラムによれば、マーカや登録オブジェクト画像を用いることなく、一方の端末のカメラに写る映像に対して、他方の端末から画像的な指示をすることができる。   According to the video instruction method, system, terminal, and program of the present invention, it is possible to give an image instruction from the other terminal to the video captured by the camera of one terminal without using a marker or a registered object image. it can.

オンラインビデオサービスのシステム構成図である。1 is a system configuration diagram of an online video service. FIG. 本発明におけるシーケンス図である。It is a sequence diagram in the present invention. 本発明における撮影動画像のフレームを表す説明図である。It is explanatory drawing showing the flame | frame of the picked-up moving image in this invention. 第1の端末によって撮影された映像を、第2の端末のディスプレイに表示した画面図である。It is the screen figure which displayed the image image | photographed by the 1st terminal on the display of the 2nd terminal. 指示者が第2の端末に指示を書き込んでいる画面図である。It is a screen figure in which the instructor has written the instruction into the second terminal. 指示静止画像及び撮影静止画像を表す説明図である。It is explanatory drawing showing an instruction | indication still image and a picked-up still image. 撮影静止画像の部分に指示静止画像が重畳して表示された第1の端末の画面図である。It is a screen figure of the 1st terminal by which the instruction | indication still image was superimposed and displayed on the part of the picked-up still image. 図7について撮影対象物に対する撮影位置が平行回転移動した場合における第1の端末の画面図である。FIG. 8 is a screen diagram of the first terminal when the shooting position with respect to the shooting target object is rotated in parallel with respect to FIG. 7. 図7について撮影対象物に対する撮影位置が射影移動した場合における第1の端末の画面図であるFIG. 8 is a screen diagram of the first terminal when the shooting position with respect to the shooting target is projected and moved with respect to FIG. 7. 第1の端末及び第2の端末の機能構成図である。It is a functional block diagram of a 1st terminal and a 2nd terminal. 送信側及び受信側の両方の機能を搭載した両用端末の機能構成図である。FIG. 3 is a functional configuration diagram of a dual-purpose terminal equipped with both functions of a transmission side and a reception side.

以下、本発明の実施の形態について、図面を用いて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本発明によれば、ARのマーカレス型・物体認識方式の適用について、マッチングのキーとなる「撮影静止画像」(所定範囲)を自動的に設定するものである。   According to the present invention, the “photographed still image” (predetermined range) that is a key for matching is automatically set for application of the AR markerless type / object recognition method.

図2は、本発明におけるシーケンス図である。   FIG. 2 is a sequence diagram in the present invention.

図2によれば、ディスプレイ及びカメラを有する端末1(被指示側端末)と、少なくともディスプレイを有する端末2(指示側端末)とが、ネットワークを介して接続されている。ディスプレイやカメラは、当該端末に予め搭載されたものであってもよいし、外部に接続されたものであってもよい。   According to FIG. 2, a terminal 1 (instructed terminal) having a display and a camera and a terminal 2 (indicating terminal) having at least a display are connected via a network. The display and camera may be preinstalled in the terminal or may be connected to the outside.

[第1のステップS1]端末1が、カメラによる撮影動画像を逐次、端末2へ送信する。例えば作業現場員(被指示者)によって操作される端末1は、作業状況(対象物)を、動画像(ビデオ)として撮影する。ここで、「撮影動画像」としては、所定時間幅で間引いたフレームのみを送信することが好ましい。言い換えれば、動画像を「パラパラ画像」とすることによって、端末2を操作する指示者にとって、撮影動画像を認識しやすくする。 [First Step S1] The terminal 1 sequentially transmits moving images captured by the camera to the terminal 2. For example, the terminal 1 operated by a work site worker (instructed person) captures a work situation (object) as a moving image (video). Here, it is preferable that only “frames thinned out by a predetermined time width” are transmitted as the “captured moving image”. In other words, by making the moving image “a flip image”, the instructor operating the terminal 2 can easily recognize the captured moving image.

図3は、本発明における撮影動画像のフレームを表す説明図である。   FIG. 3 is an explanatory diagram showing a frame of a captured moving image according to the present invention.

図3(a)によれば、例えばMotion JPEGの場合であって、撮影動画像は、全ての各フレームがJPEG圧縮されたものであり、単に所定時間幅でフレームを間引いたものである。   According to FIG. 3A, for example, in the case of Motion JPEG, the captured moving image is obtained by JPEG compression of all the frames, and is simply thinned out with a predetermined time width.

図3(b)によれば、例えば動き補償フレーム間予測方式の場合であって、複数のフレームがGOP(Group Of Pictures)単位で構成されている。GOPは、一般に、1つのI(Intra-picture)フレームと、複数のP(Predictive-picture)フレーム及びB(Bidirectionally-picture)フレームとから構成される。そして、本発明によれば、撮影動画像として、I(Intra-picture)フレームのみが抽出される。即ち、画像全体が符号化されたフレームのみを、パラパラ画像として送信する。   According to FIG. 3B, for example, in the case of a motion compensation inter-frame prediction method, a plurality of frames are configured in units of GOP (Group Of Pictures). A GOP is generally composed of one I (Intra-picture) frame, a plurality of P (Predictive-picture) frames, and a B (Bidirectionally-picture) frame. According to the present invention, only an I (Intra-picture) frame is extracted as a captured moving image. That is, only a frame in which the entire image is encoded is transmitted as a flip image.

また、Iフレームのデータレートを、1つのGOPのデータレート以下であって比較的高いレートに設定することも好ましい。例えばIフレーム1枚のデータレートと、GOPのデータレートとを同一にすることもできる。これによって、撮影動画像におけるパラパラ画像1枚の解像度を高くし、端末2を操作する指示者に対して、撮影動画像を細部に渡って認識しやすくすることができる。   It is also preferable to set the data rate of the I frame to a relatively high rate that is equal to or lower than the data rate of one GOP. For example, the data rate of one I frame can be made the same as the GOP data rate. Thereby, it is possible to increase the resolution of one flip image in the captured moving image, and to easily recognize the captured moving image in detail for the instructor who operates the terminal 2.

[第2のステップS2]端末2は、受信した撮影動画像をディスプレイに表示し、当該撮影動画像に対する「指示静止画像」をユーザに書き込ませる。 [Second Step S2] The terminal 2 displays the received captured moving image on the display and causes the user to write an “instructed still image” for the captured moving image.

図4は、第1の端末によって撮影された映像を、第2の端末のディスプレイに表示した画面図である。   FIG. 4 is a screen diagram in which an image captured by the first terminal is displayed on the display of the second terminal.

図4によれば、作業管理者(指示者)が所持する端末2には、作業現場員(被指示者)の操作する端末1によって撮影された現場状況が、動画像(パラパラ画像)として表示される。また、端末2のディスプレイの右上に、「指示書込」用ボタンが明示されている。指示者は、撮影動画像がパラパラ画像として逐次進行していく途中で、「指示書込」用ボタンを押下することによって1枚の画像を対象として、停止させることができる。   According to FIG. 4, on the terminal 2 possessed by the work manager (instructor), the scene situation photographed by the terminal 1 operated by the work site worker (instructed person) is displayed as a moving image (para image). Is done. In addition, a “write instruction” button is clearly shown in the upper right of the display of the terminal 2. The instructor can stop a single image as a target by pressing the “instruction writing” button while the captured moving image sequentially proceeds as a flip image.

図5は、指示者が第2の端末に指示を書き込んでいる画面図である。   FIG. 5 is a screen diagram in which the instructor writes an instruction on the second terminal.

図5によれば、端末2に搭載されたディスプレイが、タッチパネルディスプレイである。そのために、端末2は、タッチパネルディスプレイ上でユーザに指によって描かれた画像を指示静止画像とすることができる。ここでは、ユーザは、キーボードのキー[R]の部分を差して、「←ココ」と描いている。   According to FIG. 5, the display mounted on the terminal 2 is a touch panel display. Therefore, the terminal 2 can set an image drawn by a user's finger on the touch panel display as an instruction still image. Here, the user draws “← here” by inserting the key [R] portion of the keyboard.

また、他の実施形態として、端末2は、ディスプレイに表示された撮影動画像に、ユーザによって描かせるタッチペン入力装置を更に接続しているものであってもよい。この場合、端末2は、タッチペンによってユーザに描かれた画像を指示静止画像とすることができる。   As another embodiment, the terminal 2 may be further connected to a touch pen input device that allows a user to draw a captured moving image displayed on a display. In this case, the terminal 2 can use the image drawn by the user with the touch pen as the designated still image.

[第3のステップS3]端末2は、以下の2つの静止画像を抽出し、端末1へ送信する。
「指示静止画像」:ユーザに書き込まれた静止画像
「撮影静止画像」:当該指示静止画像を含む「所定範囲」で撮影動画像を静止画像としてトリミングした静止画像
[Third Step S3] The terminal 2 extracts the following two still images and transmits them to the terminal 1.
“Instructed still image”: Still image written by the user “Captured still image”: Still image obtained by trimming a captured moving image as a still image within a “predetermined range” including the indicated still image

図6は、指示静止画像及び撮影静止画像を表す説明図である。   FIG. 6 is an explanatory diagram showing an instruction still image and a captured still image.

(S31)撮影静止画像の「所定範囲」は、指示静止画像を含むように、自動的に、例えば矩形状の所定範囲に設定される。 (S31) The “predetermined range” of the captured still image is automatically set to a predetermined range of, for example, a rectangular shape so as to include the instruction still image.

「撮影静止画像」は、後述するように、画像マッチングの「キー画像」として用いられるものである。そのために、撮影静止画像は、画像そのものである必要はなく、マッチングのための特徴量画像であってもよい。特徴量画像とは、画像の局所領域から算出された特徴量であって、例えば画像内のエッジやコーナー等の局所領域から抽出される。代表的には例えばSIFT(Scale-Invariant Feature Transform)やSURF(Speeded Up Robust Features)が用いられる。その他、計算コストに優れるバイナリ特徴量を用いることもできる。また、SSD(Sum of Squared Difference)や、正規化相互相関(NCC)でマッチングを行うための、局所的な切り出し画像(パッチ)であってもよい。   As will be described later, the “photographed still image” is used as a “key image” for image matching. Therefore, the captured still image does not need to be the image itself, and may be a feature amount image for matching. The feature amount image is a feature amount calculated from a local region of the image, and is extracted from a local region such as an edge or a corner in the image, for example. Typically, for example, SIFT (Scale-Invariant Feature Transform) or SURF (Speeded Up Robust Features) is used. In addition, a binary feature amount that is excellent in calculation cost can also be used. Further, it may be a locally cut out image (patch) for performing matching by SSD (Sum of Squared Difference) or normalized cross correlation (NCC).

更に、「撮影静止画像」及び「指示静止画像」は、低データ量のための解像度圧縮画像であってもよい。これら画像は、bitmap形式の画像である必要はなく、例えばJPEGのような圧縮画像であってもよい。   Furthermore, the “photographed still image” and the “instructed still image” may be resolution-compressed images for a low data amount. These images do not need to be bitmap format images, and may be compressed images such as JPEG.

(S32)図5によれば、端末2のディスプレイの右上に、「指示送信」用ボタンが明示されている。ユーザは、指示静止画像を書き込んだ後、「指示送信」用ボタンを押下することによって、「指示静止画像」及び「撮影静止画像」が被指示側端末1へ送信される。 (S32) According to FIG. 5, a “command transmission” button is clearly shown in the upper right of the display of the terminal 2. After writing the instruction still image, the user presses the “instruction transmission” button, thereby transmitting “instruction still image” and “captured still image” to the instructed terminal 1.

[第4のステップS4]端末1は、カメラによって撮影された「撮影動画像」(撮影プレビュー映像)と、端末2から受信した「撮影静止画像」とをマッチングさせる。撮影動画像は常に動いているものであるので、撮影静止画像とのマッチングの追従処理は常に実行されている。そして、一致した部分の撮影動画像に「指示静止画像」を重畳させてディスプレイに表示する。具体的には、ARのマーカレス型・物体認識方式を適用したものである。 [Fourth Step S4] The terminal 1 matches the “captured moving image” (captured preview video) captured by the camera with the “captured still image” received from the terminal 2. Since the captured moving image is constantly moving, the tracking process for matching with the captured still image is always executed. Then, the “instruction still image” is superimposed on the captured moving image of the matching portion and displayed on the display. Specifically, an AR markerless type / object recognition method is applied.

図6によれば、「撮影静止画像」を射影変換(透視投影変換)又は姿勢変換させながら撮影動画像にマッチングさせている(例えば特許文献5及び6参照)。マッチングした際に、その「射影変換行列」又は「姿勢変換行列」を算出する。そして、指示静止画像をその射影変換行列又は姿勢変換行列によって変換した画像を、撮影動画像に重畳させる。   According to FIG. 6, the “captured still image” is matched with the captured moving image while projective conversion (perspective projection conversion) or posture conversion is performed (for example, see Patent Documents 5 and 6). When matching is performed, the “projection transformation matrix” or “posture transformation matrix” is calculated. Then, an image obtained by converting the designated still image using the projection transformation matrix or the posture transformation matrix is superimposed on the captured moving image.

「射影変換」とは、平行回転移動に、平面の遠近感を表現する射影を更に加えたものである。例えば以下のような行列式によって表される。

Figure 2015115723
x,y:撮影静止画像におけるx座標及びy座標
x',y':マッチング先のx座標及びy座標
11〜h33:パラメータ “Projective transformation” is obtained by further adding a projection expressing the perspective of a plane to a parallel rotational movement. For example, it is represented by the following determinant.
Figure 2015115723
x, y: x-coordinate and y-coordinate in the photographed still image x ′, y ′: x-coordinate and y-coordinate of matching destination h 11 to h 33 : parameter

「姿勢変換」とは、三次元空間内の剛体運動として表すものであって、6自由度の姿勢行列で表現する。ここで「姿勢行列」とは、3次元特殊ユークリッド群SE(3)に属し、3自由度の3次元回転行列と3次元並進ベクトルとで表される。例えば以下のような行列式によって表される。

Figure 2015115723
A:カメラの内部パラメータ
予めカメラキャリブレーションによって導出しておくことが望ましい。
しかしながら、実際の値とずれた場合であっても、最終的に姿勢行列と打ち消
し合うために、重畳表示の位置には影響しない。そのため、本発明の利用用途
の場合、一般的なカメラの値で代用することができる。
R(r11〜r33):3次元空間内の回転を表すパラメータ
各パラメータは、オイラー角の表現によって3パラメータで表現可能である。
t(t1〜t3):3次元空間内の平行移動を表すパラメータ。
x,y:撮影静止画像におけるx座標及びy座標
x',y':マッチング先のx座標及びy座標 “Posture transformation” is expressed as a rigid body motion in a three-dimensional space, and is represented by a posture matrix of 6 degrees of freedom. Here, the “attitude matrix” belongs to the three-dimensional special Euclidean group SE (3) and is represented by a three-degree-of-freedom three-dimensional rotation matrix and a three-dimensional translation vector. For example, it is represented by the following determinant.
Figure 2015115723
A: Camera internal parameters
It is desirable to derive in advance by camera calibration.
However, even if it deviates from the actual value, it will eventually cancel out the attitude matrix.
Therefore, the superimposed display position is not affected. Therefore, the usage of the present invention
In this case, a general camera value can be used instead.
R (r11 to r33): parameter representing rotation in the three-dimensional space
Each parameter can be expressed by three parameters by Euler angle expression.
t (t1 to t3): a parameter representing translation in a three-dimensional space.
x, y: x-coordinate and y-coordinate in the captured still image x ′, y ′: x-coordinate and y-coordinate of matching destination

図7は、撮影静止画像の部分に指示静止画像が重畳して表示された第1の端末の画面図である。図7によれば、撮影動画像に対して、矩形状の「撮影静止画像」と一致する部分が検出でき、その部分に「指示静止画像」を重畳して表示している。   FIG. 7 is a screen diagram of the first terminal in which the instruction still image is displayed superimposed on the captured still image portion. According to FIG. 7, a portion that matches the rectangular “captured still image” can be detected in the captured moving image, and the “instruction still image” is superimposed on the portion and displayed.

図8は、図7について撮影対象物に対する撮影位置が平行回転移動した場合における第1の端末の画面図である。図8によれば、撮影動画像が平行回転移動した場合であっても、マッチングの追従処理は常に実行されている。そのために、撮影動画像に対して、矩形状の「撮影静止画像」と一致する部分が検出できれば、その部分に「指示静止画像」を重畳して表示することができる。   FIG. 8 is a screen diagram of the first terminal when the photographing position with respect to the photographing object is moved in parallel with respect to FIG. According to FIG. 8, even when the captured moving image is rotated in parallel, the tracking process for matching is always executed. Therefore, if a portion matching the rectangular “captured still image” can be detected in the captured moving image, the “instruction still image” can be superimposed and displayed on the portion.

図9は、図7について撮影対象物に対する撮影位置が射影移動した場合における第1の端末の画面図である。図9によれば、射影変換を用いることによって、撮影対象物に対する撮影位置に追従して、指示静止画像が重畳的に表示される。   FIG. 9 is a screen diagram of the first terminal when the shooting position with respect to the shooting target is moved in a projective manner in FIG. According to FIG. 9, by using projective transformation, the instruction still image is displayed in a superimposed manner following the shooting position with respect to the shooting target.

図10は、第1の端末及び第2の端末の機能構成図である。   FIG. 10 is a functional configuration diagram of the first terminal and the second terminal.

被指示側端末としての端末1は、ネットワークに接続すると共に、ディスプレイ13及びカメラ14とを有する。また、端末1は、撮影動画像送信部11と、映像表示制御部12とを有する。これら機能構成部は、端末1に搭載されたコンピュータを機能させるプログラムを実行することによって実現される。
撮影動画像送信部11は、カメラ14による撮影動画像を逐次、相手方端末2へ送信する(図2のS1と同様)。
映像表示制御部12は、カメラ14によって撮影された撮影動画像と、相手方端末2から受信した撮影静止画像とをマッチングさせる。そして、一致した部分の撮影動画像に、相手方端末2から受信した指示静止画像を重畳させてディスプレイ13に表示する(図2のS4と同様)。
A terminal 1 as an instructed terminal has a display 13 and a camera 14 as well as connected to a network. Further, the terminal 1 includes a captured moving image transmission unit 11 and a video display control unit 12. These functional components are realized by executing a program that causes a computer mounted on the terminal 1 to function.
The captured moving image transmission unit 11 sequentially transmits captured moving images from the camera 14 to the counterpart terminal 2 (similar to S1 in FIG. 2).
The video display control unit 12 matches the captured moving image captured by the camera 14 with the captured still image received from the counterpart terminal 2. Then, the instruction still image received from the counterpart terminal 2 is superimposed on the captured moving image of the matching part and displayed on the display 13 (similar to S4 in FIG. 2).

指示側端末としての端末2は、ネットワークに接続すると共に、タッチパネルディスプレイ23を有する。また、端末2は、指示静止画像入力部21と、指示静止画像送信部22とを有する。これら機能構成部は、端末2に搭載されたコンピュータを機能させるプログラムを実行することによって実現される。
指示静止画像入力部21は、受信した撮影動画像をタッチパネルディスプレイ23に表示し、当該撮影動画像に対する指示静止画像をユーザに書き込ませる(図2のS2と同様)。
指示静止画像送信部22は、ユーザに書き込まれた指示静止画像と、当該指示静止画像を含む所定範囲で撮影動画像を静止画像としてトリミングした撮影静止画像とを、相手方端末1へ送信する(図2のS31及びS32と同様)。
The terminal 2 as the instruction side terminal is connected to the network and has a touch panel display 23. The terminal 2 includes an instruction still image input unit 21 and an instruction still image transmission unit 22. These functional components are realized by executing a program that causes a computer mounted on the terminal 2 to function.
The instruction still image input unit 21 displays the received captured moving image on the touch panel display 23 and causes the user to write the instruction still image corresponding to the captured moving image (similar to S2 in FIG. 2).
The instruction still image transmission unit 22 transmits the instruction still image written to the user and the captured still image obtained by trimming the captured moving image as a still image within a predetermined range including the instruction still image to the counterpart terminal 1 (see FIG. 2 and S31 and S32).

図11は、送信側及び受信側の両方の機能を搭載した両用端末の機能構成図である。   FIG. 11 is a functional configuration diagram of a dual-purpose terminal equipped with both functions on the transmission side and the reception side.

図11によれば、両用端末3における各機能構成部は、図9における被指示側端末1及び指示側端末2の機能構成部と全く同様のものである。また、これら機能構成部は、端末3に搭載されたコンピュータを機能させるプログラムを実行することによって実現される。   According to FIG. 11, the functional components in the dual-use terminal 3 are exactly the same as the functional components of the instructed terminal 1 and the instructing terminal 2 in FIG. 9. Further, these functional components are realized by executing a program that causes a computer mounted on the terminal 3 to function.

以上、詳細に説明したように、本発明の映像指示方法、システム、端末及びプログラムによれば、マーカや登録オブジェクト画像を用いることなく、一方の端末のカメラに写る映像に対して、他方の端末から画像的な指示をすることができる。   As described above in detail, according to the video instruction method, system, terminal, and program of the present invention, the other terminal can be used for video captured by the camera of one terminal without using a marker or a registered object image. You can give an image instruction.

前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。   Various changes, modifications, and omissions of the above-described various embodiments of the present invention can be easily made by those skilled in the art. The above description is merely an example, and is not intended to be restrictive. The invention is limited only as defined in the following claims and the equivalents thereto.

1 被指示側端末
11 撮影動画像送信部
12 映像表示制御部
13 ディスプレイ
14 カメラ
2 指示側端末
21 指示静止画像入力部
22 指示静止画像送信部
23 タッチパネルディスプレイ
3 両用端末
DESCRIPTION OF SYMBOLS 1 Commanded side terminal 11 Shooting moving image transmission part 12 Image | video display control part 13 Display 14 Camera 2 Instruction side terminal 21 Instruction still image input part 22 Instruction still image transmission part 23 Touch panel display 3 Dual-use terminal

Claims (12)

ディスプレイ及びカメラを有する第1の端末と、ディスプレイを有する第2の端末とが、ネットワークを介して接続されたシステムにおける映像指示方法において、
第1の端末が、前記カメラによる撮影動画像を逐次、第2の端末へ送信する第1のステップと、
第2の端末が、受信した前記撮影動画像を前記ディスプレイに表示し、当該撮影動画像に対する指示静止画像をユーザに書き込ませる第2のステップと、
第2の端末が、ユーザに書き込まれた指示静止画像と、当該指示静止画像を含む所定範囲で前記撮影動画像を静止画像としてトリミングした撮影静止画像とを、第1の端末へ送信する第3のステップと、
第1の端末が、前記カメラによって撮影された撮影動画像と前記撮影静止画像とをマッチングさせ、一致した部分の撮影動画像に前記指示静止画像を重畳させて前記ディスプレイに表示する第4のステップと
を有することを特徴とする映像指示方法。
In a video instruction method in a system in which a first terminal having a display and a camera and a second terminal having a display are connected via a network,
A first step in which a first terminal sequentially transmits a moving image captured by the camera to a second terminal;
A second step in which a second terminal displays the received captured moving image on the display and causes the user to write an instruction still image for the captured moving image;
A second terminal transmits an instruction still image written by the user and a captured still image obtained by trimming the captured moving image as a still image within a predetermined range including the instruction still image to the first terminal. And the steps
The first terminal matches the captured moving image captured by the camera with the captured still image, and superimposes the indicated still image on the matched captured moving image and displays the fourth image on the display. And a video instruction method.
第4のステップについて、
前記撮影静止画像を射影変換(透視投影変換)又は姿勢変換させながら前記撮影動画像にマッチングさせ、マッチングした際の射影変換行列又は姿勢変換行列を算出し、
前記指示静止画像を前記射影変換行列又は姿勢変換行列によって変換した画像を、前記撮影動画像に重畳させて表示する
ことを特徴とする請求項1に記載の映像指示方法。
For the fourth step,
Matching the captured moving image while performing projective transformation (perspective projection transformation) or posture transformation of the photographed still image, calculating a projection transformation matrix or posture transformation matrix at the time of matching,
The video instruction method according to claim 1, wherein an image obtained by converting the instruction still image by the projection transformation matrix or the attitude transformation matrix is displayed so as to be superimposed on the captured moving image.
第1のステップについて、第1の端末は、前記撮影動画像を、所定時間幅で間引いたフレームのみを、第2の端末へ送信することを特徴とする請求項1又は2のいずれか1項に記載の映像指示方法。   3. The first step according to claim 1, wherein the first terminal transmits only a frame obtained by thinning out the captured moving image by a predetermined time width to the second terminal. 4. The video instruction method described in 1. 第1のステップについて、前記撮影動画像は、動き補償フレーム間予測方式の基準となるI(Intra-picture)フレームのみを、第2の端末へ送信することを特徴とする請求項3に記載の映像指示方法。   4. The first step according to claim 3, wherein the captured moving image transmits only an I (Intra-picture) frame, which is a reference for a motion compensation inter-frame prediction method, to the second terminal. 5. Video instruction method. 第1のステップについて、第1の端末は、前記Iフレームのデータレートを、1つのGOP(Group Of Pictures)のデータレート以下であって比較的高いレートに設定することを特徴とする請求項4に記載の映像指示方法。   5. The first terminal sets the data rate of the I frame to a relatively high rate that is equal to or lower than the data rate of one GOP (Group Of Pictures) with respect to the first step. The video instruction method described in 1. 前記撮影静止画像は、前記マッチングのための特徴量画像、又は、低データ量のための解像度圧縮画像であり、
前記指示静止画像は、低データ量のための解像度圧縮画像である
ことを特徴とする請求項1から5のいずれか1項に記載の映像指示方法。
The photographed still image is a feature amount image for the matching or a resolution compressed image for a low data amount,
The video instruction method according to claim 1, wherein the instruction still image is a resolution-compressed image for a low data amount.
第2の端末に搭載されたディスプレイは、タッチパネルディスプレイであって、
第2のステップについて、第2の端末は、前記タッチパネルディスプレイ上でユーザに指によって描かれた画像を指示静止画像とする
ことを特徴とする請求項1から6のいずれか1項に記載の映像指示方法。
The display mounted on the second terminal is a touch panel display,
The video according to any one of claims 1 to 6, wherein in the second step, the second terminal uses the image drawn by the finger of the user on the touch panel display as an instruction still image. Instruction method.
第2の端末は、前記ディスプレイに表示された撮影動画像に、ユーザによって描かせるタッチペン入力装置を更に接続しており、
第2のステップについて、第2の端末は、前記タッチペンによってユーザに描かれた画像を指示静止画像とする
ことを特徴とする請求項1から6のいずれか1項に記載の映像指示方法。
The second terminal is further connected to a touch pen input device that allows the user to draw the captured moving image displayed on the display,
7. The video instruction method according to claim 1, wherein the second terminal uses the image drawn by the user with the touch pen as an instruction still image. 8.
第4のステップについて、第1の端末は、AR(拡張現実、Augmented Reality)のマーカレス型・物体認識方式を適用したものであることを特徴とする請求項1から8のいずれか1項に記載の映像指示方法。   9. The fourth step according to claim 1, wherein the first terminal applies an AR (Augmented Reality) markerless type / object recognition method. 10. Video instruction method. ディスプレイ及びカメラを有する第1の端末と、ディスプレイを有する第2の端末とが、ネットワークを介して接続された映像指示システムにおいて、
第1の端末は、
前記カメラによる撮影動画像を逐次、第2の端末へ送信する撮影動画像送信手段と、
前記カメラによって撮影された撮影動画像と、第2の端末から受信した撮影静止画像とをマッチングさせ、一致した部分の撮影動画像に、第2の端末から受信した指示静止画像を重畳させて前記ディスプレイに表示する映像表示制御手段と
を有し、
第2の端末は、
受信した撮影動画像を前記ディスプレイに表示し、当該撮影動画像に対する指示静止画像をユーザに書き込ませる指示静止画像入力手段と、
ユーザに書き込まれた指示静止画像と、当該指示静止画像を含む所定範囲で前記撮影動画像を静止画像としてトリミングした撮影静止画像とを、第1の端末へ送信する指示静止画像送信手段と
を有することを特徴とする映像指示システム。
In a video instruction system in which a first terminal having a display and a camera and a second terminal having a display are connected via a network,
The first terminal is
Shooting moving image transmitting means for sequentially transmitting a moving image captured by the camera to the second terminal;
The captured moving image captured by the camera is matched with the captured still image received from the second terminal, and the instruction still image received from the second terminal is superimposed on the matching captured moving image. Video display control means for displaying on the display,
The second terminal
An instruction still image input means for displaying the received captured moving image on the display and causing the user to write an instruction still image for the captured moving image;
Instructed still image transmission means for transmitting an instruction still image written by a user and a captured still image obtained by trimming the captured moving image as a still image within a predetermined range including the instruction still image to the first terminal. A video instruction system characterized by that.
ディスプレイ及びカメラを搭載した端末において、
前記カメラによる撮影動画像を逐次、相手方端末へ送信する撮影動画像送信手段と、
相手方端末から受信した撮影動画像を前記ディスプレイに表示し、当該撮影動画像に対する指示静止画像をユーザに書き込ませる指示静止画像入力手段と、
ユーザに書き込まれた指示静止画像と、当該指示静止画像を含む所定範囲で前記撮影動画像を静止画像としてトリミングした撮影静止画像とを、相手方端末へ送信する指示静止画像送信手段と、
前記カメラによって撮影された撮影動画像と、相手方端末から受信した撮影静止画像とをマッチングさせ、一致した部分の撮影動画像に、相手方端末から受信した指示静止画像を重畳させて前記ディスプレイに表示する映像表示制御手段と
を有することを特徴とする端末。
In a terminal equipped with a display and a camera,
Shooting moving image transmitting means for sequentially transmitting a moving image captured by the camera to the counterpart terminal;
An instruction still image input means for displaying a captured moving image received from a counterpart terminal on the display and for allowing a user to write an instruction still image for the captured moving image;
An instruction still image transmitting means for transmitting an instruction still image written by a user and a captured still image obtained by trimming the captured moving image as a still image within a predetermined range including the instruction still image to a counterpart terminal;
The captured moving image captured by the camera is matched with the captured still image received from the counterpart terminal, and the instruction still image received from the counterpart terminal is superimposed on the matched moving image and displayed on the display. A terminal having video display control means.
ディスプレイ及びカメラを搭載した端末に搭載されたコンピュータを機能させるプログラムにおいて、
前記カメラによる撮影動画像を逐次、相手方端末へ送信する撮影動画像送信手段と、
相手方端末から受信した撮影動画像を前記ディスプレイに表示し、当該撮影動画像に対する指示静止画像をユーザに書き込ませる指示静止画像入力手段と、
ユーザに書き込まれた指示静止画像と、当該指示静止画像を含む所定範囲で前記撮影動画像を静止画像としてトリミングした撮影静止画像とを、相手方端末へ送信する指示静止画像送信手段と、
前記カメラによって撮影された撮影動画像と、相手方端末から受信した撮影静止画像とをマッチングさせ、一致した部分の撮影動画像に、相手方端末から受信した指示静止画像を重畳させて前記ディスプレイに表示する映像表示制御手段と
してコンピュータを機能させることを特徴とする端末用のプログラム。
In a program for causing a computer mounted on a terminal equipped with a display and a camera to function,
Shooting moving image transmitting means for sequentially transmitting a moving image captured by the camera to the counterpart terminal;
An instruction still image input means for displaying a captured moving image received from a counterpart terminal on the display and for allowing a user to write an instruction still image for the captured moving image;
An instruction still image transmitting means for transmitting an instruction still image written by a user and a captured still image obtained by trimming the captured moving image as a still image within a predetermined range including the instruction still image to a counterpart terminal;
The captured moving image captured by the camera is matched with the captured still image received from the counterpart terminal, and the instruction still image received from the counterpart terminal is superimposed on the matched moving image and displayed on the display. A program for a terminal, which causes a computer to function as video display control means.
JP2013255496A 2013-12-10 2013-12-10 Video instruction method, system, terminal, and program capable of superimposing instruction image on photographing moving image Active JP6192107B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013255496A JP6192107B2 (en) 2013-12-10 2013-12-10 Video instruction method, system, terminal, and program capable of superimposing instruction image on photographing moving image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013255496A JP6192107B2 (en) 2013-12-10 2013-12-10 Video instruction method, system, terminal, and program capable of superimposing instruction image on photographing moving image

Publications (2)

Publication Number Publication Date
JP2015115723A true JP2015115723A (en) 2015-06-22
JP6192107B2 JP6192107B2 (en) 2017-09-06

Family

ID=53529171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013255496A Active JP6192107B2 (en) 2013-12-10 2013-12-10 Video instruction method, system, terminal, and program capable of superimposing instruction image on photographing moving image

Country Status (1)

Country Link
JP (1) JP6192107B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017187807A1 (en) * 2016-04-28 2017-11-02 ソニー株式会社 Information processing terminal device
KR20170142032A (en) * 2016-06-16 2017-12-27 주식회사 케이티 User device and video sharing server for providing multi-party communication
KR102238193B1 (en) * 2020-02-05 2021-04-09 주식회사 씨엠엑스 Method and server for managing construction information and maintenance information based on augmented reality
JP7445653B2 (en) 2018-11-09 2024-03-07 ベックマン コールター, インコーポレイテッド Repair glasses with selective data provision

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210107409A (en) * 2020-02-24 2021-09-01 삼성전자주식회사 Method and apparatus for transmitting video content using edge computing service

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000165847A (en) * 1998-11-25 2000-06-16 Victor Co Of Japan Ltd Image supeirvisory system
JP2000231625A (en) * 1999-02-12 2000-08-22 Sanyo Electric Co Ltd Instruction information transmission device
JP2004112824A (en) * 2003-11-04 2004-04-08 Ricoh Co Ltd Video camera communication apparatus
US20040070674A1 (en) * 2002-10-15 2004-04-15 Foote Jonathan T. Method, apparatus, and system for remotely annotating a target
JP2006048484A (en) * 2004-08-06 2006-02-16 Advanced Telecommunication Research Institute International Design support device
JP2007208458A (en) * 2006-01-31 2007-08-16 Fujifilm Corp System, terminal, and method for communication
JP2007208741A (en) * 2006-02-02 2007-08-16 Fuji Xerox Co Ltd Remote indication system and method
JP2010517129A (en) * 2007-01-22 2010-05-20 トタル イメルシオン Reality enhancement method and apparatus for automatically tracking textured planar geometric objects in real time without marking in a video stream
JP2012059263A (en) * 2010-09-09 2012-03-22 Pantech Co Ltd Augmented reality providing apparatus and method using relationship between objects
JP2012068885A (en) * 2010-09-23 2012-04-05 Denso Corp Visual sensing method and visual sensing device
JP2012156820A (en) * 2011-01-27 2012-08-16 Nippon Telegr & Teleph Corp <Ntt> Video communication system, and operation method of the same
JP2012204991A (en) * 2011-03-24 2012-10-22 Yamaha Corp Communication system, mobile terminal, and program
JP2012216074A (en) * 2011-03-31 2012-11-08 Konami Digital Entertainment Co Ltd Image processor, image processor control method, and program
US20120299962A1 (en) * 2011-05-27 2012-11-29 Nokia Corporation Method and apparatus for collaborative augmented reality displays
JP2012254243A (en) * 2011-06-10 2012-12-27 Mitsubishi Electric Corp Image collator, patient positioner and image verification method
JP2013109773A (en) * 2013-01-07 2013-06-06 Olympus Corp Feature matching method and article recognition system

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000165847A (en) * 1998-11-25 2000-06-16 Victor Co Of Japan Ltd Image supeirvisory system
JP2000231625A (en) * 1999-02-12 2000-08-22 Sanyo Electric Co Ltd Instruction information transmission device
US20040070674A1 (en) * 2002-10-15 2004-04-15 Foote Jonathan T. Method, apparatus, and system for remotely annotating a target
JP2004112824A (en) * 2003-11-04 2004-04-08 Ricoh Co Ltd Video camera communication apparatus
JP2006048484A (en) * 2004-08-06 2006-02-16 Advanced Telecommunication Research Institute International Design support device
JP2007208458A (en) * 2006-01-31 2007-08-16 Fujifilm Corp System, terminal, and method for communication
JP2007208741A (en) * 2006-02-02 2007-08-16 Fuji Xerox Co Ltd Remote indication system and method
JP2010517129A (en) * 2007-01-22 2010-05-20 トタル イメルシオン Reality enhancement method and apparatus for automatically tracking textured planar geometric objects in real time without marking in a video stream
JP2012059263A (en) * 2010-09-09 2012-03-22 Pantech Co Ltd Augmented reality providing apparatus and method using relationship between objects
JP2012068885A (en) * 2010-09-23 2012-04-05 Denso Corp Visual sensing method and visual sensing device
JP2012156820A (en) * 2011-01-27 2012-08-16 Nippon Telegr & Teleph Corp <Ntt> Video communication system, and operation method of the same
JP2012204991A (en) * 2011-03-24 2012-10-22 Yamaha Corp Communication system, mobile terminal, and program
JP2012216074A (en) * 2011-03-31 2012-11-08 Konami Digital Entertainment Co Ltd Image processor, image processor control method, and program
US20120299962A1 (en) * 2011-05-27 2012-11-29 Nokia Corporation Method and apparatus for collaborative augmented reality displays
JP2012254243A (en) * 2011-06-10 2012-12-27 Mitsubishi Electric Corp Image collator, patient positioner and image verification method
JP2013109773A (en) * 2013-01-07 2013-06-06 Olympus Corp Feature matching method and article recognition system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
倉持元陽(外2名): "自然特徴点を利用した投影型デザイン支援システムの開発", 映像情報メディア学会技術報告, vol. 35, no. 8, JPN6017018740, 12 February 2011 (2011-02-12), JP, pages 49 - 52, ISSN: 0003564030 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017187807A1 (en) * 2016-04-28 2017-11-02 ソニー株式会社 Information processing terminal device
JPWO2017187807A1 (en) * 2016-04-28 2019-03-07 ソニー株式会社 Information processing terminal device
US20190156784A1 (en) * 2016-04-28 2019-05-23 Sony Corporation Information processing terminal apparatus
US10679581B2 (en) 2016-04-28 2020-06-09 Sony Corporation Information processing terminal apparatus
KR20170142032A (en) * 2016-06-16 2017-12-27 주식회사 케이티 User device and video sharing server for providing multi-party communication
KR102546595B1 (en) * 2016-06-16 2023-06-23 주식회사 케이티 User device and video sharing server for providing multi-party communication
JP7445653B2 (en) 2018-11-09 2024-03-07 ベックマン コールター, インコーポレイテッド Repair glasses with selective data provision
KR102238193B1 (en) * 2020-02-05 2021-04-09 주식회사 씨엠엑스 Method and server for managing construction information and maintenance information based on augmented reality
KR20210100039A (en) * 2020-02-05 2021-08-13 주식회사 씨엠엑스 Method and server for managing construction information and maintenance information based on augmented reality
KR102424894B1 (en) * 2020-02-05 2022-07-27 주식회사 씨엠엑스 Method and server for managing construction information and maintenance information based on augmented reality

Also Published As

Publication number Publication date
JP6192107B2 (en) 2017-09-06

Similar Documents

Publication Publication Date Title
JP6230113B2 (en) Video instruction synchronization method, system, terminal, and program for synchronously superimposing instruction images on captured moving images
JP6192107B2 (en) Video instruction method, system, terminal, and program capable of superimposing instruction image on photographing moving image
KR100841281B1 (en) Electronic conference system, electronic conference controller, information terminal device, and electronic conference support method
EP3341851B1 (en) Gesture based annotations
JP2013162487A (en) Image display apparatus and imaging apparatus
JP2011217098A (en) Information processing system, conference management device, information processing method, method for controlling conference management device, and program
US9848168B2 (en) Method, synthesizing device, and system for implementing video conference
KR101586071B1 (en) Apparatus for providing marker-less augmented reality service and photographing postion estimating method therefor
US20180211445A1 (en) Information processing device, terminal, and remote communication system
JP6146869B2 (en) Video instruction display method, system, terminal, and program for superimposing instruction image on photographing moving image synchronously
JP2016021096A (en) Image processing device, image processing method, and program
CN104871179A (en) Method and system for image capture and facilitated annotation
KR102234660B1 (en) System and method for tagging additional information on 3d tour
KR102588858B1 (en) System for displaying 3d tour comparison
JP6156930B2 (en) Video instruction method, system, terminal, and program capable of superimposing instruction image on photographing moving image
CN113014960A (en) Method, device and storage medium for online video production
JP5864371B2 (en) Still image automatic generation system, worker information processing terminal, instructor information processing terminal, and determination device in still image automatic generation system
JP2019220032A (en) Program, apparatus and method that generate display image which is transformed from original image on the basis of target image
JP6306822B2 (en) Image processing apparatus, image processing method, and image processing program
WO2016117480A1 (en) Telecommunication system
JP2013238987A (en) Information display device, information input device, information display program, and information input program
JP7225016B2 (en) AR Spatial Image Projection System, AR Spatial Image Projection Method, and User Terminal
JP6830112B2 (en) Projection suitability detection system, projection suitability detection method and projection suitability detection program
JP6242009B2 (en) Video transfer system, terminal, program, and method for displaying a shooting area frame superimposed on a wide area image
JP2011113316A (en) Image processing device, system, program, and method for correlating coordinates of displayed image with coordinates of photographed image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170803

R150 Certificate of patent or registration of utility model

Ref document number: 6192107

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150