JP6306822B2 - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP6306822B2
JP6306822B2 JP2013029487A JP2013029487A JP6306822B2 JP 6306822 B2 JP6306822 B2 JP 6306822B2 JP 2013029487 A JP2013029487 A JP 2013029487A JP 2013029487 A JP2013029487 A JP 2013029487A JP 6306822 B2 JP6306822 B2 JP 6306822B2
Authority
JP
Japan
Prior art keywords
image
unit
tag
image processing
detection target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013029487A
Other languages
Japanese (ja)
Other versions
JP2014158244A (en
Inventor
紘史 大塚
紘史 大塚
智紀 盛合
智紀 盛合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Data Corp
Original Assignee
NTT Data Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data Corp filed Critical NTT Data Corp
Priority to JP2013029487A priority Critical patent/JP6306822B2/en
Publication of JP2014158244A publication Critical patent/JP2014158244A/en
Application granted granted Critical
Publication of JP6306822B2 publication Critical patent/JP6306822B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、画像処理装置、画像処理方法、および画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program.

テレビ電話やビデオチャットツールの普及に伴い、遠隔地間で映像を共有する機会が増加している。遠隔地間で映像を共有するシステムとしては、例えば、カメラによる監視システム、テレビ会議・遠隔サポートなどの遠隔映像共有システム、テレプレゼンスロボットによる遠隔コミュニケーションシステムなどが挙げられる。これらのシステムにおいて、カメラによって撮影された原画像をそのまま閲覧させたのでは、リモート端末等で映像が録画され、秘密にすべき情報が漏えいする可能性があることに配慮する必要がある。秘密にすべき情報としては、例えば、施設内の設備の配置、ラックの位置、施設内で働く人の個人情報などが挙げられる。これらのシステムでは、閲覧者に表示すべきでない領域を、画像認識やRFID(Radio Frequency Identification)などを利用して認識していた。   With the spread of videophone and video chat tools, opportunities to share video between remote locations are increasing. Examples of a system for sharing video between remote locations include a camera monitoring system, a remote video sharing system such as a video conference / remote support, and a remote communication system using a telepresence robot. In these systems, it is necessary to consider that if an original image taken by a camera is browsed as it is, a video is recorded by a remote terminal or the like, and information that should be kept secret may be leaked. Examples of information that should be kept secret include the arrangement of equipment in the facility, the position of the rack, and personal information of persons working in the facility. In these systems, an area that should not be displayed to the viewer is recognized using image recognition, RFID (Radio Frequency Identification), or the like.

また、これに関連し、カメラにより撮影された画像と予めメモリに記憶した識別情報とを比較し、画像認識手段により不都合な対象物があると識別された場合に、撮影画像中の不都合な対象物の部分をマスクする画像処理装置が知られている(例えば、特許文献1参照)。   In this connection, when an image captured by the camera is compared with the identification information stored in the memory in advance, and it is identified that there is an inconvenient object by the image recognition means, an inconvenient object in the captured image. An image processing apparatus that masks a part of an object is known (for example, see Patent Document 1).

特開2003−153252号公報JP 2003-153252 A

特許文献1に記載の装置を含めて、従来の遠隔地間で映像を共有するシステムでは、画像認識の精度やRFIDの設置不備等により、表示すべきでない領域を表示してしまうことがあった。   In a conventional system for sharing video between remote locations including the device described in Patent Document 1, there is a case where an area that should not be displayed is displayed due to image recognition accuracy, RFID imperfect installation, or the like. .

本発明は、係る事情を考慮してなされたものであり、原画像における表示すべきでない領域を、より確実に隠蔽することを目的の一つとする。   The present invention has been made in view of such circumstances, and an object of the present invention is to more reliably hide an area that should not be displayed in an original image.

本発明の一態様は、撮影部によって撮影された画像の入力を受け付ける受付部と、前記入力される画像に含まれる検出対象を検出し、該検出対象に対応する領域情報を検出する検出部と、前記検出部により検出された検出対象の画像上の位置、および前記領域情報に基づいて、前記検出対象の画像上の位置を基準にオフセット分を変位させた位置を中心として、前記画像上に所定の領域を設定する設定部と、前記設定部により設定された所定の領域内を閲覧可能とし、前記入力される画像から前記所定の領域内を除外した残余の領域を閲覧不可能とした表示画像を生成する生成部と、を備え、前記設定部は、前記画像中における前記検出対象の縦横の長さと予め設定された前記検出対象の縦横の長さに応じて、または前記撮影部における前記検出対象を撮影した角度に応じて前記オフセット分を修正する、画像処理装置である。 One aspect of the present invention is a reception unit that receives input of an image captured by an imaging unit, a detection unit that detects a detection target included in the input image, and detects region information corresponding to the detection target. Based on the position on the image of the detection target detected by the detection unit and the region information, the position on the image is centered on the position where the offset is displaced with reference to the position on the image of the detection target. A setting unit that sets a predetermined area, and a display that enables browsing within the predetermined area set by the setting unit, and makes it impossible to browse the remaining area that excludes the predetermined area from the input image comprising a generation unit for generating an image, wherein the setting unit, according to the length of the detection target of the vertical and horizontal lengths and preset the detection target aspect during the image or before Symbol imaging unit, Above Modifying said offset depending on the angles obtained by photographing a subject out, an image processing apparatus.

また、本発明の他の態様は、画像処理装置が、撮影部によって撮影された画像の入力を受け付け、前記入力される画像に含まれる検出対象を検出し、前記検出された検出対象の画像上の位置に基づいてオフセット分を変位させた位置を中心として、前記画像上に所定の領域を設定し、前記設定された所定の領域内を閲覧可能とし、前記入力される画像から前記所定の領域内を除外した残余の領域を閲覧不可能とした表示画像を生成し、更に、前記オフセット分は、前記画像中における前記検出対象の縦横の長さと予め設定された前記検出対象の縦横の長さに応じて、または前記撮影部における前記検出対象を撮影した角度に応じて修正する、画像処理方法である。 According to another aspect of the present invention, an image processing apparatus receives an input of an image captured by an imaging unit, detects a detection target included in the input image, and detects the detection target on the detected detection target image. A predetermined area is set on the image around the position where the offset is displaced based on the position of the image, the inside of the set predetermined area can be browsed, and the predetermined area from the input image Generating a display image in which the remaining area excluding the inside cannot be browsed, and further, the offset is the vertical and horizontal lengths of the detection target in the image and the predetermined vertical and horizontal lengths of the detection target modifying in response to or in angles taken the detected prior SL imaging unit, according to an image processing method.

また、本発明の他の態様は、画像処理装置に、撮影部によって撮影された画像の入力を受け付けさせ、前記入力される画像に含まれる検出対象を検出させ、前記検出された検出対象の画像上の位置に基づいてオフセット分を変位させた位置を中心として、前記画像上に所定の領域を設定させ、前記設定された所定の領域内を閲覧可能とし、前記入力される画像から前記所定の領域内を除外した残余の領域を閲覧不可能とした表示画像を生成させ、更に、前記オフセット分は、前記画像中における前記検出対象の縦横の長さと予め設定された前記検出対象の縦横の長さに応じて、または前記撮影部における前記検出対象を撮影した角度に応じて修正させる、画像処理プログラムである。
According to another aspect of the present invention, the image processing apparatus receives an input of an image captured by the imaging unit, detects a detection target included in the input image, and detects the detected target image. A predetermined area is set on the image around the position where the offset is displaced based on the upper position, the inside of the predetermined area can be browsed, and the predetermined image can be viewed from the input image. A display image in which the remaining area excluding the area cannot be browsed is generated, and further, the offset is the vertical and horizontal length of the detection target in the image and a predetermined vertical and horizontal length of the detection target. in response to the, or pre SL make modified according to angles taken the detection target in the photographed portion, an image processing program.

本発明の一態様によれば、原画像における表示すべきでない領域を、より確実に隠蔽することができる。   According to one embodiment of the present invention, an area that should not be displayed in an original image can be more reliably hidden.

第1実施形態に係る遠隔監視システムのシステム構成例である。1 is a system configuration example of a remote monitoring system according to a first embodiment. 施設10内にタグ10Aが貼り付け又は描画された様子を示す図である。It is a figure which shows a mode that the tag 10A was affixed or drawn in the facility 10. FIG. 第1実施形態の遠隔監視システムが利用される様子を模式的に示す図である。It is a figure which shows typically a mode that the remote monitoring system of 1st Embodiment is utilized. 本実施形態の遠隔監視システムにおいて実行される全体的な処理の流れを示すフローチャートの一例である。It is an example of the flowchart which shows the flow of the whole process performed in the remote monitoring system of this embodiment. タグ情報61として格納されるデータの一例である。4 is an example of data stored as tag information 61. タグ10Aと窓枠WDとの位置関係を示す図である。It is a figure which shows the positional relationship of tag 10A and window frame WD. 表示許可情報62としてタグデータベース60に格納されるデータの一例である。4 is an example of data stored in a tag database 60 as display permission information 62. 第1実施形態の画像処理装置5により実行される処理の流れを示すフローチャートの一例である。It is an example of the flowchart which shows the flow of the process performed by the image processing apparatus 5 of 1st Embodiment. ベースマスクBMの模式図と、ベースマスクBMのデータ構造を示す図である。It is the figure which shows the base mask BM and the data structure of the base mask BM. 窓マスクWMの模式図と、窓マスクWMのデータ構造を示す図である。It is a figure which shows the schematic diagram of the window mask WM, and the data structure of the window mask WM. 窓マスクWMの設定方法を説明するための図である。It is a figure for demonstrating the setting method of the window mask WM. マスクデータMDの模式図と、マスクデータMDのデータ構造を示す図である。It is the figure which shows the schematic diagram of mask data MD, and the data structure of mask data MD. リモート端末3の表示部32において、タグ10Aを基準に設定された窓枠WD内のみ原画像が表示され、窓枠WD外については黒一色の画像が表示される様子を示す図である。In the display part 32 of the remote terminal 3, it is a figure which shows a mode that an original image is displayed only within the window frame WD set on the basis of the tag 10A, and a black color image is displayed outside the window frame WD. リモート端末3の表示部32において、複数のタグ10A(1)〜10A(3)を基準に設定された窓枠WD(1)〜WD(3)内のみ原画像が表示され、原画像から複数の窓枠WDWD(1)〜WD(3)内の領域を除外した残余の領域について黒一色の画像が表示される様子を示す図である。On the display unit 32 of the remote terminal 3, the original image is displayed only within the window frames WD (1) to WD (3) set based on the plurality of tags 10A (1) to 10A (3). It is a figure which shows a mode that the image of a black color is displayed about the remaining area | regions except the area | region in window frame WDWD (1) -WD (3). 第2実施形態に係る遠隔監視システムのシステム構成例である。It is a system configuration example of the remote monitoring system according to the second embodiment. 始点タグと終点タグの2つのタグで窓枠WDの範囲を決定する様子を示す図である。It is a figure which shows a mode that the range of the window frame WD is determined with two tags, a start point tag and an end point tag.

以下、図面を参照し、本発明の画像処理装置、画像処理方法、および画像処理プログラムの実施形態について説明する。なお、以下の説明では、本発明の画像処理装置等が、遠隔監視システムの一部として用いられることを前提とするが、本発明の画像処理装置等は、これに限らず、種々の用途に使用することができる。   Hereinafter, embodiments of an image processing apparatus, an image processing method, and an image processing program of the present invention will be described with reference to the drawings. In the following description, it is assumed that the image processing apparatus of the present invention is used as a part of a remote monitoring system, but the image processing apparatus of the present invention is not limited to this and is used for various purposes. Can be used.

<第1実施形態>
以下、第1実施形態に係る遠隔監視システムについて説明する。図1は、第1実施形態に係る遠隔監視システムのシステム構成例である。第1実施形態に係る遠隔監視システムは、カメラ1と、現地端末2と、リモート端末3と、画像処理装置5と、を備える。現地端末2、リモート端末3、および画像処理装置5は、ネットワーク9を介して互いに接続される。ネットワーク9は、例えば、Wi−Fi網などの無線通信網や光通信網などの有線通信網を含む。
<First Embodiment>
Hereinafter, the remote monitoring system according to the first embodiment will be described. FIG. 1 is a system configuration example of a remote monitoring system according to the first embodiment. The remote monitoring system according to the first embodiment includes a camera 1, a local terminal 2, a remote terminal 3, and an image processing device 5. The local terminal 2, the remote terminal 3, and the image processing device 5 are connected to each other via a network 9. The network 9 includes, for example, a wireless communication network such as a Wi-Fi network and a wired communication network such as an optical communication network.

[施設10内の構成]
カメラ1は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮影素子を利用したカメラである。カメラ1は、例えば施設10内を移動可能なロボットや車両などに搭載される。施設10は、例えば、データセンターや工場、プラント、会議室など、第三者に秘匿する必要のある箇所や人物が含まれる任意の施設である。ロボットや車両などは、例えば施設10内の作業者によって操縦される。また、カメラ1は、施設10内の任意の場所に固設されても構わないし、屋外を撮影するものであっても構わない。
[Configuration of facility 10]
The camera 1 is a camera that uses an imaging element such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). The camera 1 is mounted on, for example, a robot or a vehicle that can move in the facility 10. The facility 10 is an arbitrary facility including a part or person that needs to be kept secret from a third party, such as a data center, a factory, a plant, or a conference room. A robot, a vehicle, etc. are steered by the worker in the facility 10, for example. In addition, the camera 1 may be fixed at an arbitrary place in the facility 10 or may be a camera for photographing the outdoors.

現地端末2は、通信線を介して或いは無線により、カメラ1と接続される。現地端末2は、例えば施設10内に設置され、施設10内の作業者によって操作される。現地端末2は、画像取得部21と、画像送信部22と、音声送受信部23とを備える。以下、「設置され」とは、ノートパソコンのような可搬型の端末が置かれることを含むものとする。   The local terminal 2 is connected to the camera 1 via a communication line or wirelessly. For example, the local terminal 2 is installed in the facility 10 and is operated by an operator in the facility 10. The local terminal 2 includes an image acquisition unit 21, an image transmission unit 22, and an audio transmission / reception unit 23. Hereinafter, “installed” includes that a portable terminal such as a notebook computer is placed.

画像取得部21は、カメラ1から、カメラ1が撮影した画像を取得する。画像は、NTSC(National Television System Committee)などのアナログ方式によって取得されてもよいし、A/D変換されたデジタルデータとして取得されてもよい。   The image acquisition unit 21 acquires an image taken by the camera 1 from the camera 1. The image may be acquired by an analog method such as NTSC (National Television System Committee), or may be acquired as A / D converted digital data.

画像送信部22は、画像取得部21が取得したカメラ1の撮影画像を、ネットワーク9を介して画像処理装置3に送信する。ネットワーク9を介した画像の送信手法としては、ストリーミングやプログレッシブダウンロードなどの手法が用いられてもよいし、FTP(File Transfer Protocol)などのプロトコルを用いて動画ファイルとして送信する手法が用いられてもよい。なお、施設10内に画像処理装置5が設置される場合もあり、この場合、現地端末2と画像処理装置5は統合されて同じハードウェアにより実現される可能性がある。係る場合において、画像の送信は不要な処理となる。   The image transmission unit 22 transmits the captured image of the camera 1 acquired by the image acquisition unit 21 to the image processing device 3 via the network 9. As a method for transmitting an image via the network 9, a method such as streaming or progressive download may be used, or a method for transmitting a moving image file using a protocol such as FTP (File Transfer Protocol) may be used. Good. Note that the image processing device 5 may be installed in the facility 10, and in this case, the local terminal 2 and the image processing device 5 may be integrated and realized by the same hardware. In such a case, image transmission is an unnecessary process.

また、音声送受信部23は、図示しないマイクに入力された音声を、ネットワーク9を介してリモート端末3に送信すると共に、リモート端末3からネットワーク9を介して受信した音声を、図示しないスピーカに出力させる。これによって、画像送信部22およびリモート端末3の音声送受信部33は、現地端末2を操作する作業者と、リモート端末3を操作する閲覧者との間で会話を行わせることができる。   The voice transmitting / receiving unit 23 transmits the voice input to the microphone (not shown) to the remote terminal 3 via the network 9 and outputs the voice received from the remote terminal 3 via the network 9 to a speaker (not shown). Let As a result, the image transmission unit 22 and the voice transmission / reception unit 33 of the remote terminal 3 can make a conversation between the operator who operates the local terminal 2 and the viewer who operates the remote terminal 3.

[リモート端末3の構成]
リモート端末3は、表示画像受信部31と、表示部32と、音声送受信部33と、ログイン情報入力受付部34とを備える。
[Configuration of remote terminal 3]
The remote terminal 3 includes a display image receiving unit 31, a display unit 32, a voice transmission / reception unit 33, and a login information input receiving unit 34.

表示画像受信部31は、現地端末2から画像処理装置5に送信され、画像処理装置5によってマスク処理された画像(表示画像)を、画像処理装置5から受信する。   The display image receiving unit 31 receives an image (display image) transmitted from the local terminal 2 to the image processing device 5 and subjected to mask processing by the image processing device 5 from the image processing device 5.

表示部32は、例えば、LCD(Liquid Crystal Display)やブラウン管ディスプレイ、プラズマディスプレイ、有機EL(Electroluminescence)ディスプレイなどの表示装置である。表示部32は、表示画像受信部31が受信した表示画像を表示する。表示画像を見るのは、例えば、前述した施設10内の故障個所等を遠隔地から監視する閲覧者である。閲覧者は、例えば、施設10内に設置された設備の保守専門家であるが、施設10内の全ての設備を見る権限を有していない立場の者である。画像処理装置5は、この閲覧者に対して施設10内の特定の箇所(後述する窓枠WD内の領域)だけを見せ、特定の箇所以外を見せないために、特定の箇所以外をマスクする処理を行って、表示画像を生成する。   The display unit 32 is a display device such as an LCD (Liquid Crystal Display), a cathode ray tube display, a plasma display, or an organic EL (Electroluminescence) display. The display unit 32 displays the display image received by the display image receiving unit 31. The display image is viewed by, for example, a viewer who monitors the above-mentioned failure location in the facility 10 from a remote location. The viewer is, for example, a maintenance specialist for equipment installed in the facility 10, but is a person who does not have the authority to view all equipment in the facility 10. The image processing apparatus 5 shows only a specific part (area in a window frame WD described later) in the facility 10 to this viewer, and masks other parts than the specific part in order not to show other parts. Processing is performed to generate a display image.

音声送受信部33は、前述したように、現地端末2を操作する作業者と、リモート端末3を操作する閲覧者との間で会話を行わせる。   As described above, the voice transmission / reception unit 33 causes a conversation between the operator who operates the local terminal 2 and the viewer who operates the remote terminal 3.

ログイン情報入力受付部34は、閲覧者による、閲覧者自身の識別情報であるユーザIDなどの入力を受け付ける。ログイン情報入力受付部34が入力を受け付けた閲覧者のユーザIDは、画像処理装置5に送信される。ログイン情報入力受付部34は、例えば、キーボードやマウス、並びにこれらのドライバなどを含む。   The login information input receiving unit 34 receives an input by the viewer such as a user ID that is identification information of the viewer. The user ID of the viewer who has received the input by the login information input receiving unit 34 is transmitted to the image processing apparatus 5. The login information input receiving unit 34 includes, for example, a keyboard, a mouse, and drivers for these.

[画像処理装置の構成]
画像処理装置5は、例えば、タグ情報設定受付部51と、ログイン受付部52と、画像受信部53と、タグ検出部54と、表示可否判定部55と、マスクデータ生成部56と、表示画像生成部57と、表示画像送信部58とを備える。
[Configuration of image processing apparatus]
The image processing apparatus 5 includes, for example, a tag information setting reception unit 51, a login reception unit 52, an image reception unit 53, a tag detection unit 54, a display availability determination unit 55, a mask data generation unit 56, and a display image. A generation unit 57 and a display image transmission unit 58 are provided.

また、画像処理装置5は、HDD(Hard Disk Drive)やSSD(Solid State Drive)、RAM(Random Access Memory)などの記憶装置上に、タグ情報61および表示許可情報62などを含むタグデータベース60を格納している。タグ情報61および表示許可情報62は、それぞれタグIDに対応付けられた情報となっている。   The image processing apparatus 5 also has a tag database 60 including tag information 61 and display permission information 62 on a storage device such as a hard disk drive (HDD), a solid state drive (SSD), and a random access memory (RAM). Storing. The tag information 61 and the display permission information 62 are information associated with each tag ID.

ここで、施設10内の設備における任意の箇所には、カメラ1の撮影画像を解析することによって認識可能なタグ(マーク)が、貼り付け又は描画されている。タグは、画像認識が容易な色彩や模様、例えば、画像におけるコントラストが鮮明な白黒の模様などが付されている。図2は、施設10内にタグ10Aが貼り付け又は描画された様子を示す図である。   Here, a tag (mark) that can be recognized by analyzing a captured image of the camera 1 is pasted or drawn at an arbitrary place in the facility 10. The tag is provided with a color or pattern that allows easy image recognition, such as a black and white pattern with a clear contrast in the image. FIG. 2 is a diagram illustrating a state where the tag 10 </ b> A is pasted or drawn in the facility 10.

各タグには、それぞれ便宜的に識別子(タグID)が設定されている。タグ情報設定受付部51は、画像処理装置5の操作者による操作を受け付け、タグIDとタグの形状などとの対応付けを設定する。タグ情報設定受付部51は、例えば、キーボードやマウス、並びにこれらのドライバなどを含む。   For each tag, an identifier (tag ID) is set for convenience. The tag information setting reception unit 51 receives an operation by an operator of the image processing apparatus 5 and sets a correspondence between a tag ID and a tag shape. The tag information setting reception unit 51 includes, for example, a keyboard, a mouse, and their drivers.

ログイン受付部52は、ログイン情報入力受付部34が受け付けた閲覧者のユーザ情報を、リモート端末3から受信し、ユーザIDとして表示可否判定部55に出力する。   The login reception unit 52 receives the user information of the viewer received by the login information input reception unit 34 from the remote terminal 3 and outputs it to the display permission determination unit 55 as a user ID.

画像受信部53は、現地端末2の画像送信部22から、カメラ1が撮影した画像(原画像)を受信する。タグ検出部54は、例えば、カメラ1が撮影した画像の1フレーム毎に、画像中に含まれるタグを検出し、検出したタグのタグIDを表示可否判定部55に出力する。   The image reception unit 53 receives an image (original image) taken by the camera 1 from the image transmission unit 22 of the local terminal 2. For example, the tag detection unit 54 detects a tag included in the image for each frame of the image captured by the camera 1, and outputs the tag ID of the detected tag to the display availability determination unit 55.

表示可否判定部55は、リモート端末3に対してユーザIDを入力した閲覧者に、当該タグIDに対応付けられた窓枠WD内における原画像の表示を許可するか否かを決定する。   The display availability determination unit 55 determines whether or not to allow the viewer who has input the user ID to the remote terminal 3 to display the original image within the window frame WD associated with the tag ID.

マスクデータ生成部56は、現地端末1から受信した原画像のうち、表示可否判定部55により表示が許可された窓枠WD内のみを表示し、それ以外の部分を表示しないためのマスクデータMDを生成する。   The mask data generation unit 56 displays only the inside of the window frame WD permitted to be displayed by the display availability determination unit 55 among the original images received from the local terminal 1, and mask data MD for not displaying other portions. Is generated.

表示画像生成部57は、画像受信部53が受信した原画像と、マスクデータ生成部56が生成したマスクデータMDを合成し、リモート端末3に送信する表示画像を生成する。   The display image generation unit 57 combines the original image received by the image reception unit 53 and the mask data MD generated by the mask data generation unit 56 to generate a display image to be transmitted to the remote terminal 3.

表示画像送信部58は、表示画像生成部57が生成した表示画像を、ネットワーク9を介してリモート端末3に送信する。画像の送信手法としては、現地端末2から画像処理装置5への送信手法と同様、ストリーミングやプログレッシブダウンロードなどの手法が用いられてもよいし、FTPなどのプロトコルを用いて動画ファイルとして送信する手法が用いられてもよい。   The display image transmission unit 58 transmits the display image generated by the display image generation unit 57 to the remote terminal 3 via the network 9. As an image transmission method, a method such as streaming or progressive download may be used as in the case of the transmission method from the local terminal 2 to the image processing device 5, or a method of transmitting as a moving image file using a protocol such as FTP. May be used.

図3は、第1実施形態の遠隔監視システムが利用される様子を模式的に示す図である。図3に示すように、現地端末2を操作する作業者U1と、リモート端末3を操作する閲覧者U2は、互いに会話を行いながら、カメラ1の撮影位置を調整したり、ログインの指示を行ったりすることができる。また、リモート端末3の表示部32には、画像処理装置5から送られて来た表示画像が表示される。   FIG. 3 is a diagram schematically illustrating how the remote monitoring system according to the first embodiment is used. As shown in FIG. 3, the worker U1 who operates the local terminal 2 and the viewer U2 who operates the remote terminal 3 adjust the shooting position of the camera 1 or give a login instruction while talking with each other. Can be. In addition, the display image sent from the image processing device 5 is displayed on the display unit 32 of the remote terminal 3.

[フローチャートなど]
以下、上記説明した各機能部の処理について、フローチャートなどを用いて、より詳細に説明する。
[Flowchart etc.]
Hereinafter, the processing of each functional unit described above will be described in more detail using a flowchart or the like.

図4は、本実施形態の遠隔監視システムにおいて実行される全体的な処理の流れを示すフローチャートの一例である。   FIG. 4 is an example of a flowchart showing the overall processing flow executed in the remote monitoring system of this embodiment.

まず、事前準備として、タグ情報設定受付部51が、タグ情報61および表示許可情報62の設定を受け付ける(ステップS100)。また、事前準備には、施設10内における所望の箇所にタグを貼り付け又は描画することが含まれてもよい。   First, as advance preparation, the tag information setting reception unit 51 receives settings of the tag information 61 and the display permission information 62 (step S100). Further, the preliminary preparation may include pasting or drawing a tag at a desired location in the facility 10.

図5は、タグ情報61として格納されるデータの一例である。画像処理装置5の操作者は、タグのサイズ、形状(模様)、窓枠形状、窓枠サイズ、中心位置オフセット、表示期間などの情報と、タグIDが対応付けられた情報を、タグ情報61としてタグデータベース60に格納させる。   FIG. 5 is an example of data stored as tag information 61. The operator of the image processing apparatus 5 uses the tag information 61 to associate the tag ID with information such as the tag size, shape (pattern), window frame shape, window frame size, center position offset, and display period. Is stored in the tag database 60.

タグ情報61に含まれるタグのサイズは、カメラ1が試験的にタグを撮影したときの画像上のサイズであってもよいし、タグの実際のサイズであってもよい。タグ情報61に含まれるタグの形状(模様)は、例えば、カメラ1が試験的にタグを撮影したときの画像データであってもよいし、タグがコンピュータグラフィックとして生成される場合、当該グラフィックデータであってもよい。   The size of the tag included in the tag information 61 may be the size on the image when the camera 1 photographs the tag on a trial basis, or may be the actual size of the tag. The tag shape (pattern) included in the tag information 61 may be, for example, image data when the camera 1 takes a test image, or when the tag is generated as a computer graphic, the graphic data It may be.

タグ情報61における窓枠とは、タグの位置に対応付けられた、表示を許可する領域を意味する。図6は、タグ10Aと窓枠WDとの位置関係を示す図である。図6に示すように、窓枠WDは、タグの(例えば中心の)位置から「中心位置オフセット」分だけ変位した位置を中心とし、窓枠形状、および窓枠サイズに応じた領域に設定される。また、タグ情報における表示期間は、タグに対応付けられた窓枠を表示する期間を示す。   The window frame in the tag information 61 means an area that is associated with the tag position and that allows display. FIG. 6 is a diagram showing a positional relationship between the tag 10A and the window frame WD. As shown in FIG. 6, the window frame WD is set to an area corresponding to the window frame shape and the window frame size with the position displaced by the “center position offset” from the (for example, the center) position of the tag. The Moreover, the display period in tag information shows the period which displays the window frame matched with the tag.

また、表示許可情報62は、ユーザIDに対応するユーザに、対応する窓枠WD内の領域の表示を許可するタグのタグIDを対応付けた情報である。図7は、表示許可情報62としてタグデータベース60に格納されるデータの一例である。画像処理装置5の操作者は、各ユーザIDについて、対応する窓枠WD内の領域の表示を許可するタグIDを、表示許可情報62としてタグデータベース60に格納する。例えば、ユーザIDが「User001」であるユーザに対しては、タグIDが「Tag001」であるタグに対応する窓枠WD内の領域の表示が許可される。   The display permission information 62 is information in which a tag corresponding to a tag that permits display of an area in the corresponding window frame WD is associated with a user corresponding to the user ID. FIG. 7 is an example of data stored in the tag database 60 as the display permission information 62. For each user ID, the operator of the image processing apparatus 5 stores a tag ID that permits display of the area in the corresponding window frame WD as display permission information 62 in the tag database 60. For example, for the user whose user ID is “User001”, display of the area in the window frame WD corresponding to the tag whose tag ID is “Tag001” is permitted.

事前準備が完了すると、カメラ1の撮影した画像を取得し、閲覧者に限定的な表示画像を提供する処理が行われる(ステップS200)。ステップS200の処理の詳細については、図8を用いて説明する。   When the advance preparation is completed, an image captured by the camera 1 is acquired, and a process of providing a limited display image to the viewer is performed (step S200). Details of the processing in step S200 will be described with reference to FIG.

そして、事後処理として、閲覧者のログアウト、当該ユーザIDに関する設定情報の削除、タグの除去などが行われる(ステップS300)。   Then, as post processing, logout of the viewer, deletion of setting information related to the user ID, removal of a tag, and the like are performed (step S300).

図8は、本実施形態の画像処理装置5により実行される処理の流れを示すフローチャートの一例である。図8のフローチャートは、図7におけるステップS200の処理を詳細に説明するものである。   FIG. 8 is an example of a flowchart showing a flow of processing executed by the image processing apparatus 5 of the present embodiment. The flowchart in FIG. 8 explains in detail the processing in step S200 in FIG.

まず、画像受信部53が、カメラ1の撮影画像(原画像)の受信を開始する(ステップS202)。画像受信部53は、原画像のサイズから、以下に説明するベースマスク、窓マスク、マスクデータの縦横サイズ{mask_size_py}[ピクセル]および{mask_size_px}[ピクセル]を取得しておく。   First, the image receiving unit 53 starts receiving a captured image (original image) of the camera 1 (step S202). The image receiving unit 53 obtains a base mask, a window mask, and vertical and horizontal sizes {mask_size_py} [pixels] and {mask_size_px} [pixels] described below from the size of the original image.

次に、ログイン受付部52が、リモート端末3を用いた閲覧者のログインを受け付ける(ステップS204)。なお、ステップS202とステップS204の処理は順序が逆であってもよい。このように、本実施形態で説明するフローチャートの処理は、処理の順序に特段の意義を有さない場合、任意に順序を入れ替えて構わない。   Next, the login reception unit 52 receives a browser login using the remote terminal 3 (step S204). Note that the order of the processes of step S202 and step S204 may be reversed. As described above, the processes of the flowcharts described in the present embodiment may be arbitrarily changed in order when there is no particular significance in the order of the processes.

閲覧者は、ログインを行った後、例えば、閲覧したい原画像を選択する操作を、リモート端末3に対して行う。また、閲覧者が、予め指定されたURLを入力することにより、閲覧したい画面が、直接リモート端末3に読み込まれてもよい。   After logging in, the viewer performs, for example, an operation on the remote terminal 3 to select an original image to be browsed. In addition, a screen that the viewer wants to browse may be directly read into the remote terminal 3 by inputting a URL specified in advance.

次に、タグ検出部54が、原画像の例えば1フレーム毎に、原画像中のタグを検出する(ステップS206)。タグ検出部54は、例えば、公知のパターンマッチングなどの手法を用いて、画像に含まれるタグの形状(模様)と、タグ情報61として格納された形状(模様)とを比較することにより、タグの検出を行う。タグ検出部54は、検出したタグのタグIDおよび位置(例えば、画像におけるタグの中心の座標)を出力する。   Next, the tag detection unit 54 detects a tag in the original image, for example, for each frame of the original image (step S206). The tag detection unit 54 compares the shape (pattern) of the tag included in the image with the shape (pattern) stored as the tag information 61 by using a known pattern matching method, for example. Detection is performed. The tag detection unit 54 outputs the tag ID and position (for example, the coordinates of the center of the tag in the image) of the detected tag.

次に、マスクデータ生成部56が、原画像のサイズに応じたベースマスクBMを生成する(ステップS208)。ベースマスクBMは、例えば、原画像のサイズに対応した数の画素のそれぞれに対して、三原色の輝度値に対応した属性値が付与された構造のデータである。   Next, the mask data generation unit 56 generates a base mask BM corresponding to the size of the original image (step S208). The base mask BM is, for example, data having a structure in which attribute values corresponding to the luminance values of the three primary colors are assigned to each of the number of pixels corresponding to the size of the original image.

図9は、ベースマスクBMの模式図と、ベースマスクBMのデータ構造を示す図である。図9(A)は、ベースマスクBMの模式図であり、図9(B)は、ベースマスクBMのデータ構造を示す図である。図9に示すように、ベースマスクBMは、画像処理装置5が扱う画像がカラー画像であり、三原色の輝度値[R、G、B]の輝度値の最大値がそれぞれ+255であれば、三原色の輝度値[R、G、B]のそれぞれについて属性値[―255]が全ての画素p1〜pnに対して付与されたデータである。なお、ベースマスクBMは、画像処理装置5が扱う画像が白黒画像であり、各画素の輝度値の最大値が+255であれば、全ての画素に対して、属性値[−255]が付与されたデータである。   FIG. 9 is a schematic diagram of the base mask BM and a diagram illustrating a data structure of the base mask BM. FIG. 9A is a schematic diagram of the base mask BM, and FIG. 9B is a diagram illustrating a data structure of the base mask BM. As shown in FIG. 9, if the image handled by the image processing device 5 is a color image and the maximum value of the luminance values [R, G, B] of the three primary colors is +255, respectively, the base mask BM has three primary colors. The attribute value [−255] is assigned to all the pixels p1 to pn for each of the luminance values [R, G, B]. The base mask BM has an attribute value [−255] for all pixels if the image handled by the image processing device 5 is a monochrome image and the maximum luminance value of each pixel is +255. Data.

次に、表示可否判定部55は、ログインした閲覧者に、ステップS206において検出されたタグIDに対応付けられた窓枠WD内における原画像の表示を許可するか否かを決定する(ステップS210)。具体的には、表示可否判定部55は、タグ検出部54が出力したタグのタグIDと、ログイン受付部52が出力したユーザIDとの組み合わせが表示許可情報62に含まれ、且つ現在の日時がタグ情報61における当該タグIDの表示可能期間内であるか否かを判定する。表示可否判定部55は、上記条件を満たす場合に、ユーザIDを入力した閲覧者に、当該タグIDに対応付けられた窓枠WD内における原画像の表示を許可する。   Next, the display permission determination unit 55 determines whether or not to allow the logged-in viewer to display the original image in the window frame WD associated with the tag ID detected in step S206 (step S210). ). Specifically, the display permission determination unit 55 includes a combination of the tag ID of the tag output from the tag detection unit 54 and the user ID output from the login reception unit 52 in the display permission information 62, and the current date and time. Is within the displayable period of the tag ID in the tag information 61. When the above condition is satisfied, the display availability determination unit 55 permits the viewer who has input the user ID to display the original image in the window frame WD associated with the tag ID.

次に、マスクデータ生成部56が、表示可否判定部55によって表示が許可された窓枠について、窓マスクWMを生成する(ステップS212)。窓マスクWMは、図6で説明したように、許可されたタグIDに係るタグの位置から「中心位置オフセット」分だけ変位した位置を中心とし、窓枠形状、および窓枠サイズに応じた領域に設定される。なお、ステップS206において検出されたタグが複数存在する場合、複数の窓マスクWMが生成される場合もあり得る。   Next, the mask data generation unit 56 generates a window mask WM for the window frame permitted to be displayed by the display availability determination unit 55 (step S212). As described with reference to FIG. 6, the window mask WM is an area corresponding to the window frame shape and the window frame size centered on the position displaced by the “center position offset” from the tag position related to the permitted tag ID. Set to If there are a plurality of tags detected in step S206, a plurality of window masks WM may be generated.

図10は、窓マスクWMの模式図と、窓マスクWMのデータ構造を示す図である。図10(A)は、窓マスクWMの模式図であり、図10(B)は、窓マスクWMのデータ構造を示す図である。図10に示すように、窓マスクWMは、画像処理装置5が扱う画像がカラー画像であれば、三原色の輝度値[R、G、B]のそれぞれについて属性値[NA(データなし)]が窓枠外の画素(例えば、p1、pn)に対して付与され、三原色の輝度値[R、G、B]のそれぞれについて属性値[0]が窓枠WD内の画素(例えば、pk)に対して付与されたデータである。なお、窓マスクWMは、画像処理装置5が扱う画像が白黒画像であれば、例えば属性値[NA]が窓枠外の画素に対して付与され、例えば属性値[0]が窓枠WD内の画素に対して付与されたデータである。   FIG. 10 is a schematic diagram of the window mask WM and a data structure of the window mask WM. FIG. 10A is a schematic diagram of the window mask WM, and FIG. 10B is a diagram illustrating a data structure of the window mask WM. As shown in FIG. 10, the window mask WM has an attribute value [NA (no data)] for each of the luminance values [R, G, B] of the three primary colors if the image handled by the image processing device 5 is a color image. It is given to pixels outside the window frame (for example, p1, pn), and the attribute value [0] for each of the luminance values [R, G, B] of the three primary colors is assigned to the pixels (for example, pk) in the window frame WD. This is the data assigned. If the image handled by the image processing device 5 is a black and white image, the window mask WM is given, for example, the attribute value [NA] to pixels outside the window frame, and the attribute value [0] is within the window frame WD, for example. This is data given to a pixel.

また、図11は、窓マスクWMの設定方法を説明するための図である。ここでは、タグ検出部54により検出されたタグの位置を(tag_posi_px,tag_posi_py)、タグ検出部54により検出されたタグIDを用いてタグ情報61から得られた窓枠の縦横サイズをそれぞれ{window_size_py},{window_size_px}、中心位置オフセットを縦横それぞれ{offset_py},{offset_px}とする。また、窓枠形状は四角であるものとする。   FIG. 11 is a diagram for explaining a method of setting the window mask WM. Here, the position of the tag detected by the tag detection unit 54 is (tag_posi_px, tag_posi_py), and the vertical and horizontal sizes of the window frame obtained from the tag information 61 using the tag ID detected by the tag detection unit 54 are {window_size_py, respectively. }, {Window_size_px}, and the center position offset is {offset_py}, {offset_px}, respectively. The window frame shape is assumed to be a square.

ここで、設定値{window_size_py}、{window_size_px}、{offset_py},{offset_px}は、対象物を撮影した角度や対象物との距離に応じて修正されることが好ましい。マスクデータ生成部56は、好ましくは、原画像におけるタグの縦横の長さと、タグ情報61に含まれるタグのサイズに基づき、アフィン変換や台形補正などの処理を行って上記設定値を修正する。すなわち、マスクデータ生成部56は、原画像におけるタグのサイズが基準よりも小さければ小さいほど、窓マスクWMを小さく設定し、大きければ大きいほど、窓マスクWMを大きく設定してよい。また、マスクデータ生成部56は、原画像におけるタグの縦横の長さ比がタグ情報61に含まれるタグのサイズと異なっていれば、異なる程度に応じて設定値{window_size_py}と{window_size_px}の比率を修正してよい。   Here, it is preferable that the set values {window_size_py}, {window_size_px}, {offset_py}, and {offset_px} are corrected according to the angle at which the object is photographed and the distance to the object. The mask data generation unit 56 preferably corrects the set value by performing processing such as affine transformation and keystone correction based on the length and width of the tag in the original image and the size of the tag included in the tag information 61. That is, the mask data generation unit 56 may set the window mask WM to be smaller as the tag size in the original image is smaller than the reference, and may be set to be larger as the tag size is larger. Further, the mask data generation unit 56 sets the setting values {window_size_py} and {window_size_px} according to different degrees if the length ratio of the tag in the original image is different from the size of the tag included in the tag information 61. You may modify the ratio.

図11において、窓枠WDの左端線のx座標は、{tag_posi_px+offset_px-1/2(window_size_px)}で表され、窓枠WDの右端線のx座標は、{tag_posi_px+offset_px+1/2(window_size_px)}で表される。また、窓枠WDの上端線のy座標は、{tag_posi_py+offset_py-1/2(window_size_py)}で表され、窓枠WDの右端線のy座標は、{tag_posi_py+offset_py+1/2(window_size_py)}で表される。   In FIG. 11, the x coordinate of the left edge line of the window frame WD is represented by {tag_posi_px + offset_px-1 / 2 (window_size_px)}, and the x coordinate of the right edge line of the window frame WD is {tag_posi_px + offset_px + 1/2 (window_size_px)}. The y coordinate of the upper end line of the window frame WD is represented by {tag_posi_py + offset_py-1 / 2 (window_size_py)}, and the y coordinate of the right end line of the window frame WD is {tag_posi_py + offset_py + 1/2 (window_size_py) )}.

従って、マスクデータ生成部56は、x座標が{tag_posi_px+offset_px-1/2(window_size_px)}以上、{tag_posi_px+offset_px+1/2(window_size_px)}以下であり、且つ、y座標が{tag_posi_py+offset_py-1/2(window_size_py)}以上、{tag_posi_py+offset_py+1/2(window_size_py)}以下であれば、窓枠WD内の画素であると判定する。マスクデータ生成部56は、例えば、全ての画素について上記の条件を満たすか否かを判定し、窓枠WD内の画素であるか、窓枠外の画素であるかをそれぞれ決定する。これによって、窓マスクWMが設定される。   Therefore, the mask data generation unit 56 has an x coordinate of {tag_posi_px + offset_px-1 / 2 (window_size_px)} or more and {tag_posi_px + offset_px + 1/2 (window_size_px)} or less and a y coordinate of {tag_posi_py + If it is more than offset_py-1 / 2 (window_size_py)} and {tag_posi_py + offset_py + 1/2 (window_size_py)}, it is determined that the pixel is in the window frame WD. For example, the mask data generation unit 56 determines whether or not the above condition is satisfied for all the pixels, and determines whether the pixel is within the window frame WD or outside the window frame. Thereby, the window mask WM is set.

図8に戻り、フローチャートの説明を行う。マスクデータ生成部56は、ベースマスクBMと窓マスクWMを合成してマスクデータMDを生成する(ステップS214)。   Returning to FIG. 8, the flowchart will be described. The mask data generation unit 56 combines the base mask BM and the window mask WM to generate mask data MD (step S214).

図12は、マスクデータMDの模式図と、マスクデータMDのデータ構造を示す図である。図11(A)は、マスクデータMDの模式図であり、図11(B)は、マスクデータMDのデータ構造を示す図である。図11に示すように、マスクデータ生成部56は、例えば、ベースマスクBMの各画素に対して、窓マスクMDにおける対応する画素(座標が同じ画素)に属性値[0,0,0]が付与されていれば属性値を[0,0,0]に置換し、対応する画素の属性値が[NA,NA,NA]であれば属性値[―255,−255,−255]のまま維持することにより、マスクデータMDを生成する。これによって、窓枠WD内の画素に対しては三原色の輝度値パラメータ[0,0,0]が与えられ、窓枠外の画素に対しては[―255,−255,−255]が与えられたマスクデータMDが生成される。   FIG. 12 is a schematic diagram of the mask data MD and a data structure of the mask data MD. FIG. 11A is a schematic diagram of the mask data MD, and FIG. 11B is a diagram illustrating a data structure of the mask data MD. As illustrated in FIG. 11, for example, the mask data generation unit 56 sets, for each pixel of the base mask BM, attribute values [0, 0, 0] to corresponding pixels (pixels having the same coordinates) in the window mask MD. If it is assigned, the attribute value is replaced with [0, 0, 0]. If the attribute value of the corresponding pixel is [NA, NA, NA], the attribute value remains as [-255, -255, -255]. By maintaining, mask data MD is generated. As a result, the luminance value parameters [0, 0, 0] of the three primary colors are given to the pixels in the window frame WD, and [−255, −255, −255] are given to the pixels outside the window frame. Mask data MD is generated.

なお、係る手法はあくまで一例であり、マスクデータ生成部56は、窓マスクWMにおいて、窓枠WD内の画素に対して、三原色の輝度値[R、G、B]=[255,255,255]のような属性値を与えてもよい。この場合、マスクデータ生成部56は、ベースマスクBMの各画素の属性値と、窓マスクWMの対応する画素の属性値とを加算してマスクデータMDを生成する。   Note that such a technique is merely an example, and the mask data generation unit 56 uses the luminance values [R, G, B] = [255, 255, 255] of the three primary colors for the pixels in the window frame WD in the window mask WM. ] May be given. In this case, the mask data generating unit 56 adds the attribute value of each pixel of the base mask BM and the attribute value of the corresponding pixel of the window mask WM to generate mask data MD.

図8に戻り、フローチャートの説明を行う。表示画像生成部57は、原画像とマスクデータMDを合成して表示画像を生成する(ステップS216)。表示画像生成部57は、原画像の各画素について、三原色の輝度値にマスクデータの対応する画素の属性値をそれぞれ加算し、負の値については0に補正することによって、表示画像の各画素の三原色の輝度値を算出する。原画像の各画素の三原色の輝度値を[Rgk(k=1〜n),Ggk、Bgk]、マスクデータの各画素の属性値を[Rmk,Gmk,Bmk]とすると、表示画像の各画素の輝度値[Rk,Gk,Bk]は、次式(1)により算出される。   Returning to FIG. 8, the flowchart will be described. The display image generation unit 57 combines the original image and the mask data MD to generate a display image (step S216). For each pixel of the original image, the display image generation unit 57 adds the attribute value of the corresponding pixel of the mask data to the luminance value of the three primary colors, and corrects the negative value to 0, thereby correcting each pixel of the display image. The luminance values of the three primary colors are calculated. When the luminance values of the three primary colors of each pixel of the original image are [Rgk (k = 1 to n), Ggk, Bgk] and the attribute value of each pixel of the mask data is [Rmk, Gmk, Bmk], each pixel of the display image The luminance values [Rk, Gk, Bk] are calculated by the following equation (1).

[Rk,Gk,Bk]=[max(Rgk+Rmk,0),max(Ggk+Gmk,0),max(Bgk+Bmk,0)] ‥(1)   [Rk, Gk, Bk] = [max (Rgk + Rmk, 0), max (Ggk + Gmk, 0), max (Bgk + Bmk, 0)] (1)

そして、表示画像送信部58が、生成された表示画像を、リモート端末3に送信する(ステップS218)。   Then, the display image transmission unit 58 transmits the generated display image to the remote terminal 3 (step S218).

係る処理の結果、リモート端末3の表示部32には、タグを基準に設定された窓枠WD内のみ原画像が表示され、窓枠WD外については黒一色の画像(三原色の輝度値が全て0であるため)が表示される。図13は、リモート端末3の表示部32において、タグ10Aを基準に設定された窓枠WD内のみ原画像が表示され、原画像から窓枠WD内の領域を除外した残余の領域について黒一色の画像が表示される様子を示す図である。   As a result of such processing, the display unit 32 of the remote terminal 3 displays the original image only within the window frame WD set with reference to the tag, and displays a black one-color image (all the three primary color luminance values are outside the window frame WD). Is displayed). FIG. 13 shows the display unit 32 of the remote terminal 3 in which the original image is displayed only in the window frame WD set with the tag 10A as a reference, and the remaining area excluding the area in the window frame WD from the original image is black. It is a figure which shows a mode that the image of is displayed.

なお、複数のタグが画像中に含まれる場合、複数の窓枠WDが設定される場合もあり得る。この場合、複数の窓枠WD内で原画像が表示され、原画像から複数の窓枠WD内の領域を除外した残余の領域について黒一色の画像が表示される。図14は、リモート端末3の表示部32において、複数のタグ10A(1)〜10A(3)を基準に設定された窓枠WD(1)〜WD(3)内のみ原画像が表示され、原画像から複数の窓枠WDWD(1)〜WD(3)内の領域を除外した残余の領域について黒一色の画像が表示される様子を示す図である。   If a plurality of tags are included in the image, a plurality of window frames WD may be set. In this case, the original image is displayed in the plurality of window frames WD, and a black color image is displayed for the remaining area excluding the areas in the plurality of window frames WD from the original image. FIG. 14 shows that the display unit 32 of the remote terminal 3 displays the original image only in the window frames WD (1) to WD (3) set based on the plurality of tags 10A (1) to 10A (3). It is a figure which shows a mode that the image of a black color is displayed about the remaining area | region which excluded the area | region in several window frames WDWD (1) -WD (3) from the original image.

[まとめ]
第1実施形態の画像処理装置5によれば、現地端末2から受信した原画像のうち、タグの位置(座標)を基準として設定される窓枠WD内の領域を、原画像が閲覧可能な領域とし、原画像から窓枠WD内の領域を除外した残余の領域を、原画像が閲覧不可能な領域とした表示画像を生成するため、原画像における表示すべきでない領域を、より確実に隠蔽することができる。
[Summary]
According to the image processing apparatus 5 of the first embodiment, the original image can be viewed in the area within the window frame WD set with reference to the position (coordinates) of the tag among the original images received from the local terminal 2. In order to generate a display image in which the remaining area obtained by excluding the area in the window frame WD from the original image is an area in which the original image is not viewable, the area that should not be displayed in the original image is more reliably Can be concealed.

本実施形態の画像処理装置5は、原画像における閲覧者に表示すべきでない領域を特定するのではなく、表示が許可される領域を特定する情報(タグ)を予め画像に埋め込んでおき、この情報から閲覧可能な領域を決定する。この結果、リモート端末3において表示される表示画像は、タグが認識されない状態では、原画像が全く見えない状態となっている。そして、表示画像は、タグが検知された場合のみ、タグに紐づけられた情報(窓枠WDの形状やサイズ、表示期間など)に基づき、明示的に指定された窓枠WD内の領域のみが閲覧可能な画像となる。この結果、画像処理装置5は、誤って表示すべきでない領域を表示してしまうこと可能性を低減することができ、セキュリティ性を向上させることができる。   The image processing apparatus 5 according to the present embodiment does not specify an area that should not be displayed to the viewer in the original image, but pre-embeds information (tag) that specifies an area permitted to be displayed in the image. A viewable area is determined from the information. As a result, the display image displayed on the remote terminal 3 is in a state where the original image cannot be seen at all when the tag is not recognized. And only when the tag is detected, the display image is based on information associated with the tag (the shape and size of the window frame WD, the display period, etc.), and only the area within the explicitly specified window frame WD. Becomes a viewable image. As a result, the image processing apparatus 5 can reduce the possibility of erroneously displaying an area that should not be displayed, and can improve security.

また、本実施形態の画像処理装置5は、タグやユーザIDに対して、窓枠WDの形状やサイズ、表示期間などの情報を対応付けることで、簡易かつ高信頼度で、表示領域の設定・変更を実現することが出来る。例えば、画像処理装置5は、異なる閲覧者に対して異なる領域を閲覧させようとする場合、ユーザIDに対応付けられた情報を変更するだけで、閲覧させる領域を変更することができる。また、画像処理装置5は、タグに対応付けられた表示期間を設定することで、指定した期間以外は表示しないということを、簡易に実現することができる。   In addition, the image processing apparatus 5 according to the present embodiment associates information such as the shape, size, and display period of the window frame WD with the tag and the user ID, so that the display area can be set easily and with high reliability. Changes can be realized. For example, when the image processing apparatus 5 tries to browse different areas for different viewers, the image processing apparatus 5 can change the area to be browsed only by changing information associated with the user ID. In addition, the image processing apparatus 5 can easily realize that the display period other than the designated period is not displayed by setting the display period associated with the tag.

<第2実施形態>
以下、第2実施形態に係る遠隔監視システムについて説明する。第1実施形態では、窓枠WDを設定する基準となる位置は、施設10内の設備に貼り付け又は描画されたタグの位置であるものとした。これに対し、第2実施形態では、カメラ1によって撮像された画像を見ている画像処理装置5の操作者が(現地端末2の操作者でもよい)、画像における特定の位置にマーキングを行い、この特定の位置を基準として窓枠WDが設定される。
Second Embodiment
Hereinafter, the remote monitoring system according to the second embodiment will be described. In the first embodiment, the reference position for setting the window frame WD is the position of the tag attached to or drawn on the equipment in the facility 10. On the other hand, in the second embodiment, the operator of the image processing apparatus 5 (which may be the operator of the local terminal 2) who views the image captured by the camera 1 performs marking at a specific position in the image, The window frame WD is set with this specific position as a reference.

図15は、第2実施形態に係る遠隔監視システムのシステム構成例である。第2実施形態における現地端末2およびリモート端末3については、第1実施形態と同様であるため、説明を省略する。   FIG. 15 is a system configuration example of a remote monitoring system according to the second embodiment. About the local terminal 2 and the remote terminal 3 in 2nd Embodiment, since it is the same as that of 1st Embodiment, description is abbreviate | omitted.

第2実施形態に係る画像処理装置5は、第1実施形態に係る画像処理装置5と比較すると、仮想タグ設定部70を新たに備え、タグ検出部54に代えて仮想タグ検出部71を備える。   Compared with the image processing apparatus 5 according to the first embodiment, the image processing apparatus 5 according to the second embodiment newly includes a virtual tag setting unit 70 and includes a virtual tag detection unit 71 instead of the tag detection unit 54. .

仮想タグ設定部70は、原画像において、例えば画像処理装置5の操作者がマウスでクリックまたはタッチした位置(マーキングされた位置)を検知する。仮想タグ設定部70は、マーキングされた位置を中心とした基準領域内の画像を、予め定められた種々のパラメータを有するタグIDのいずれかに対応付けて、タグの形状(模様)としてタグデータベース60に格納する。基準領域は、マーキングされた位置を中心とし、任意の大きさを有する矩形や円などの領域である。以下、このように形状(模様)がタグデータベース60に登録されたタグを、仮想タグと称する。   The virtual tag setting unit 70 detects, for example, a position (marked position) where the operator of the image processing device 5 clicks or touches with the mouse in the original image. The virtual tag setting unit 70 associates an image in the reference area centered on the marked position with any of tag IDs having various predetermined parameters, and forms a tag database as a tag shape (pattern). 60. The reference area is an area such as a rectangle or a circle having an arbitrary size with the marked position as the center. Hereinafter, a tag whose shape (pattern) is registered in the tag database 60 is referred to as a virtual tag.

仮想タグ検出部71は、特徴点トラッキング処理などを行い、仮想タグ設定部70により設定された仮想タグを、原画像から抽出する。仮想タグ検出部71は、例えば、仮想タグ内のヒストグラム特徴量を算出し、原画像のフレーム毎に、複数の領域についてヒストグラム特徴量を算出し、最もヒストグラム特徴量が近い領域を、仮想タグとして検出する。   The virtual tag detection unit 71 performs a feature point tracking process and the like, and extracts the virtual tag set by the virtual tag setting unit 70 from the original image. For example, the virtual tag detection unit 71 calculates a histogram feature amount in the virtual tag, calculates a histogram feature amount for a plurality of regions for each frame of the original image, and sets a region having the closest histogram feature amount as a virtual tag. To detect.

以下、第2実施形態に係る画像処理装置5は、「タグ」を「仮想タグ」に置き換えて、第1実施形態に係る画像処理装置5と同様の処理を行う。この結果、マーキングされた位置を中心とした仮想タグがトラッキングされ、マーキングされた位置を基準として窓枠WDが設定される。従って、第2実施形態に係る画像処理装置5は、第1実施例に係る画像処理装置5と同様に、原画像における表示すべきでない領域を、より確実に隠蔽することができる。   Hereinafter, the image processing apparatus 5 according to the second embodiment performs the same processing as the image processing apparatus 5 according to the first embodiment, replacing “tag” with “virtual tag”. As a result, the virtual tag centered on the marked position is tracked, and the window frame WD is set based on the marked position. Therefore, similarly to the image processing apparatus 5 according to the first example, the image processing apparatus 5 according to the second embodiment can more reliably hide the area that should not be displayed in the original image.

<ハードウェア構成等>
前述した各実施形態における現地端末2、リモート端末3、および画像処理装置5は、内部にコンピュータシステムを有している。「コンピュータシステム」は、CPU(Central Processing Unit)、RAM(Random Access Memory)等のメモリ装置、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)等の記憶装置、記憶媒体を装着可能なドライブ装置、周辺機器等のハードウェアを含むものである。
<Hardware configuration>
The local terminal 2, the remote terminal 3, and the image processing device 5 in each embodiment described above have a computer system therein. The “computer system” includes a memory device such as a CPU (Central Processing Unit) and a RAM (Random Access Memory), a storage device such as a ROM (Read Only Memory), an HDD (Hard Disk Drive), and an SSD (Solid State Drive). It includes hardware such as a drive device and a peripheral device in which a medium can be mounted.

そして、前述した現地端末2の画像取得部21、画像送信部22、音声送受信部23、リモート端末3の表示画像受信部31、表示部32、音声送受信部33、ログイン情報入力受付部34、および画像処理装置5のタグ情報設定受付部51、ログイン受付部52、画像受信部53、タグ検出部54、表示可否判定部55、マスクデータ生成部56、表示画像生成部57、表示画像送信部58等の動作の過程は、例えば、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われる。なお、上記各機能部の処理が、全てプログラムを実行することによって行われる必要は無く、一部の機能部は、IC(Integrated Circuit)やLSI(Large Scale Integration)、ネットワークカードなどのハードウェアによって実現されてもよい。   The image acquisition unit 21, the image transmission unit 22, the voice transmission / reception unit 23, the display image reception unit 31, the display unit 32, the voice transmission / reception unit 33, the login information input reception unit 34, and the remote terminal 3 described above, Tag information setting reception unit 51, login reception unit 52, image reception unit 53, tag detection unit 54, display availability determination unit 55, mask data generation unit 56, display image generation unit 57, display image transmission unit 58 of image processing apparatus 5 The operation process is stored in, for example, a computer-readable recording medium in the form of a program, and the above-described processing is performed by the computer system reading and executing the program. In addition, it is not necessary to perform all the processing of each functional unit by executing a program. Some functional units are implemented by hardware such as an IC (Integrated Circuit), an LSI (Large Scale Integration), or a network card. It may be realized.

「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光ディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるHDD等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。   The “computer-readable recording medium” refers to a portable medium such as a flexible disk, an optical disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as an HDD built in the computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are included.

また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、更に、前述した機能を、コンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。   The program may be for realizing a part of the functions described above, and further, the program described above may be realized in combination with a program already recorded in a computer system. good.

なお、上記各実施形態におけるマスクデータ生成部56および表示画像生成部57が、「生成部」の一例であり、窓枠WD内の領域が、「所定の領域」の一例である。   Note that the mask data generation unit 56 and the display image generation unit 57 in each of the above embodiments are examples of “generation unit”, and the region in the window frame WD is an example of “predetermined region”.

<その他の実施形態>
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形、置換、他の構成要素の追加などを行うことができる。
<Other embodiments>
As mentioned above, although the form for implementing this invention was demonstrated using embodiment, this invention is not limited to such embodiment at all, In the range which does not deviate from the summary of this invention, various deformation | transformation and substitution Other components can be added.

例えば、第1実施形態と第2実施形態は、排他的な関係に無く、画像処理装置5は、原画像から検出されたタグを基準として窓枠WDを設定する機能と、原画像においてマーキングされた位置を基準として窓枠WDを設定する機能の双方を有してもよい。   For example, the first embodiment and the second embodiment are not in an exclusive relationship, and the image processing apparatus 5 is marked in the original image with the function of setting the window frame WD based on the tag detected from the original image. It is also possible to have both functions of setting the window frame WD with reference to the determined position.

また、窓枠WDの設定方法は、上記実施形態の方法に限らない。例えば、窓枠WDの形状が円である場合、窓枠WDの範囲は、始点タグと終点タグの2つのタグで決定することができる。図16は、始点タグと終点タグの2つのタグで窓枠WDの範囲を決定する様子を示す図である。図16に示すように、始点タグは、例えば円である窓枠WDの中心点に貼り付け又は描画される。また、終点タグは、例えば円である窓枠WDの円周上の任意の点に貼り付け又は描画される。こうすれば、窓枠サイズや中心位置オフセットなどの情報を、予めタグデータベース60に格納しておく必要が無くなる。   The setting method of the window frame WD is not limited to the method of the above embodiment. For example, when the shape of the window frame WD is a circle, the range of the window frame WD can be determined by two tags, a start point tag and an end point tag. FIG. 16 is a diagram illustrating a state in which the range of the window frame WD is determined by two tags, that is, a start point tag and an end point tag. As shown in FIG. 16, the start point tag is pasted or drawn at the center point of the window frame WD which is, for example, a circle. Further, the end point tag is pasted or drawn at an arbitrary point on the circumference of the window frame WD which is, for example, a circle. This eliminates the need to store information such as the window frame size and the center position offset in the tag database 60 in advance.

また、上記実施形態では、窓枠WD外の領域は、黒一色に表示されるものとしたが、これに代えて、窓枠WD外の領域は、モザイク表示、または黒以外の一色で表示されるなど、原画像が閲覧不可能なものであれば、如何なる表示態様で表示されてもよい。   In the above embodiment, the area outside the window frame WD is displayed in black, but instead, the area outside the window frame WD is displayed in mosaic display or one color other than black. As long as the original image cannot be browsed, it may be displayed in any display mode.

また、本発明の画像処理装置5は、遠隔地から特定の施設を監視するという場面に限らず、画像における特定の部分を隠蔽する必要性が発生する、種々の場面に利用することができる。   The image processing apparatus 5 according to the present invention is not limited to monitoring a specific facility from a remote location, and can be used in various scenes where it is necessary to conceal a specific part of an image.

1 カメラ
2 現地端末
21 画像取得部
22 画像送信部
23 音声送受信部
3 リモート端末
31 表示画像受信部
32 表示部
33 音声送受信部
34 ログイン情報入力受付部
5 画像処理装置
51 タグ情報設定受付部
52 ログイン受付部
53 画像受信部
54 タグ検出部
55 表示可否判定部
56 マスクデータ生成部
57 表示画像生成部
58 表示画像送信部
60 タグデータベース
61 タグ情報
62 表示許可情報
70 仮想タグ設定部
71 仮想タグ
9 ネットワーク
BM ベースマスク
WM 窓マスク
MD マスクデータ
WD 窓枠
DESCRIPTION OF SYMBOLS 1 Camera 2 Local terminal 21 Image acquisition part 22 Image transmission part 23 Audio | voice transmission / reception part 3 Remote terminal 31 Display image reception part 32 Display part 33 Voice transmission / reception part 34 Login information input reception part 5 Image processing apparatus 51 Tag information setting reception part 52 Login Reception unit 53 Image reception unit 54 Tag detection unit 55 Display availability determination unit 56 Mask data generation unit 57 Display image generation unit 58 Display image transmission unit 60 Tag database 61 Tag information 62 Display permission information 70 Virtual tag setting unit 71 Virtual tag 9 Network BM Base mask WM Window mask MD Mask data WD Window frame

Claims (6)

撮影部によって撮影された画像の入力を受け付ける受付部と、
前記入力される画像に含まれる検出対象を検出し、該検出対象に対応する領域情報を検出する検出部と、
前記検出部により検出された検出対象の画像上の位置、および前記領域情報に基づいて、前記検出対象の画像上の位置を基準にオフセット分を変位させた位置を中心として、前記画像上に所定の領域を設定する設定部と、
前記設定部により設定された所定の領域内を閲覧可能とし、前記入力される画像から前記所定の領域内を除外した残余の領域を閲覧不可能とした表示画像を生成する生成部と、
を備え、
前記設定部は、前記画像中における前記検出対象の縦横の長さと予め設定された前記検出対象の縦横の長さに応じて、または前記撮影部における前記検出対象を撮影した角度に応じて前記オフセット分を修正する、
画像処理装置。
A reception unit that receives input of an image captured by the imaging unit;
A detection unit for detecting a detection target included in the input image and detecting region information corresponding to the detection target;
Based on the position on the detection target image detected by the detection unit and the region information, a predetermined position on the image is centered on the position where the offset is displaced with reference to the position on the detection target image. A setting section for setting the area of
A generation unit that generates a display image in which the inside of the predetermined area set by the setting unit can be browsed and the remaining area excluding the inside of the predetermined area cannot be browsed from the input image;
With
The setting unit, depending on the detection of the target aspect length as the preset the detection target aspect in accordance with the length or pre Symbol angles taken the detection target in the imaging unit, during the image Correct the offset,
Image processing device.
請求項1に記載の画像処理装置であって、
前記検出対象は、前記撮影部が撮影した空間において、前記表示画像中で閲覧可能とされる物体の付近に設置された物体であり、
前記設定部は、前記検出対象の画像上の位置と、予め設定されている前記検出対象の位置と前記所定の領域との位置関係に関する情報とに基づいて、前記所定の領域を設定する、
画像処理装置。
The image processing apparatus according to claim 1,
The detection target is an object installed in the vicinity of an object that can be viewed in the display image in the space photographed by the photographing unit,
The setting unit sets the predetermined area based on a position on the image of the detection target and information on a positional relationship between the position of the detection target set in advance and the predetermined area;
Image processing device.
請求項1または2に記載の画像処理装置であって、
前記生成部は、前記入力される画像の全ての領域を閲覧不可能とする情報を含む閲覧不可能化データと、前記所定の領域に対応したデータであって、前記閲覧不可能化データの一部の情報を無効化する無効化データとを合成し、該合成したデータと前記入力される画像とを合成することで、前記入力される画像から前記所定の領域内を除外した残余の領域を閲覧不可能とした表示画像を生成する、
画像処理装置。
The image processing apparatus according to claim 1, wherein:
The generation unit includes browsing disabled data including information that disables browsing of all areas of the input image, and data corresponding to the predetermined area, and includes one of the browsing disabled data. By combining the invalidation data for invalidating the information of the part, and synthesizing the synthesized data and the input image, the remaining area excluding the predetermined area from the input image is obtained. Generate a display image that cannot be viewed,
Image processing device.
請求項1から3のいずれか1項に記載の画像処理装置であって、
前記入力される画像における座標の指定を受け付ける座標指定受付部と、
前記座標指定受付部が受け付けた座標を基準として前記所定の領域を設定する第2の設定部と、
更に備える画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
A coordinate designation accepting unit for accepting designation of coordinates in the input image;
A second setting unit that sets the predetermined area with reference to the coordinates received by the coordinate designation receiving unit;
An image processing apparatus further comprising:
画像処理装置が、
撮影部によって撮影された画像の入力を受け付け、
前記入力される画像に含まれる検出対象を検出し、
前記検出された検出対象の画像上の位置に基づいてオフセット分を変位させた位置を中心として、前記画像上に所定の領域を設定し、
前記設定された所定の領域内を閲覧可能とし、前記入力される画像から前記所定の領域内を除外した残余の領域を閲覧不可能とした表示画像を生成し、
更に、前記オフセット分は、前記画像中における前記検出対象の縦横の長さと予め設定された前記検出対象の縦横の長さに応じて、または前記撮影部における前記検出対象を撮影した角度に応じて修正する、
画像処理方法。
The image processing device
Accept input of images taken by the shooting unit,
Detecting a detection target included in the input image,
Set a predetermined region on the image around the position where the offset is displaced based on the detected position on the detection target image,
Generate a display image in which the set predetermined area can be browsed, and the remaining area excluding the predetermined area from the input image cannot be browsed,
Further, the offset, the detection of the target horizontal and vertical preset the detection target aspect and lengths depending on the length or angles taken the detected prior SL imaging unit during the image Modify accordingly,
Image processing method.
画像処理装置に、
撮影部によって撮影された画像の入力を受け付けさせ、
前記入力される画像に含まれる検出対象を検出させ、
前記検出された検出対象の画像上の位置に基づいてオフセット分を変位させた位置を中心として、前記画像上に所定の領域を設定させ、
前記設定された所定の領域内を閲覧可能とし、前記入力される画像から前記所定の領域内を除外した残余の領域を閲覧不可能とした表示画像を生成させ、
更に、前記オフセット分は、前記画像中における前記検出対象の縦横の長さと予め設定された前記検出対象の縦横の長さに応じて、または前記撮影部における前記検出対象を撮影した角度に応じて修正させる、
画像処理プログラム。
In the image processing device,
Accept input of images taken by the shooting unit,
Detecting a detection target included in the input image;
Centered on the position where the offset is displaced based on the detected position on the detection target image, a predetermined area is set on the image,
Allowing the set predetermined area to be browsed and generating a display image in which the remaining area excluding the predetermined area from the input image cannot be browsed;
Further, the offset, the detection of the target horizontal and vertical preset the detection target aspect and lengths depending on the length or angles taken the detected prior SL imaging unit during the image Let me fix it,
Image processing program.
JP2013029487A 2013-02-18 2013-02-18 Image processing apparatus, image processing method, and image processing program Active JP6306822B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013029487A JP6306822B2 (en) 2013-02-18 2013-02-18 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013029487A JP6306822B2 (en) 2013-02-18 2013-02-18 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2014158244A JP2014158244A (en) 2014-08-28
JP6306822B2 true JP6306822B2 (en) 2018-04-04

Family

ID=51578850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013029487A Active JP6306822B2 (en) 2013-02-18 2013-02-18 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6306822B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7179583B2 (en) * 2018-11-05 2022-11-29 株式会社東芝 Image processing device and image processing method
JP2022037675A (en) * 2020-08-25 2022-03-09 Sppテクノロジーズ株式会社 Remote maintenance support method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5077097B2 (en) * 2008-06-26 2012-11-21 沖電気工業株式会社 Video processing system
JP5132705B2 (en) * 2010-03-26 2013-01-30 株式会社日立製作所 Image processing device
JP5803199B2 (en) * 2011-03-25 2015-11-04 富士ゼロックス株式会社 Video display device, portable terminal, and program

Also Published As

Publication number Publication date
JP2014158244A (en) 2014-08-28

Similar Documents

Publication Publication Date Title
JP6335395B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US9811910B1 (en) Cloud-based image improvement
KR101899877B1 (en) Apparatus and method for improving quality of enlarged image
US10297005B2 (en) Method for generating panoramic image
JP2012129689A (en) Video processing apparatus, camera device, and video processing method
JP2017533484A (en) Method for correcting video including shooting restriction element, device for performing the method, and system
JP2008225550A (en) Image processing apparatus, image processing method and program
WO2014030405A1 (en) Display device, display method, television receiver, and display control device
US20190020644A1 (en) Service providing system, service delivery system, service providing method, and non-transitory recording medium
JPWO2017013986A1 (en) Information processing apparatus, terminal, remote communication system, and information processing program
JP6720966B2 (en) Information processing apparatus, information processing method, and program
JP6192107B2 (en) Video instruction method, system, terminal, and program capable of superimposing instruction image on photographing moving image
JP6306822B2 (en) Image processing apparatus, image processing method, and image processing program
JP2018005091A (en) Display control program, display control method and display controller
JP6004978B2 (en) Subject image extraction device and subject image extraction / synthesis device
JP6235094B1 (en) Display control method and program for causing a computer to execute the display control method
JP5891828B2 (en) Mobile terminal, photographed image disclosure method, program
JP2009281830A (en) Device, method, program and system for setting installation of plurality of displays
JPWO2017086355A1 (en) Transmission device, transmission method, reception device, reception method, and transmission / reception system
JP2008131174A (en) Image processing system and program
JP6242009B2 (en) Video transfer system, terminal, program, and method for displaying a shooting area frame superimposed on a wide area image
JP2014071577A (en) Input reception device
JP6640876B2 (en) Work support device, work support method, work support program, and recording medium
TW202306380A (en) Augmented reality system and operation method thereof
JP5397245B2 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160830

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161215

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20161226

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20170127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180309

R150 Certificate of patent or registration of utility model

Ref document number: 6306822

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250