WO2018122895A1 - Image processing device, image processing method, image processing program, and image monitoring system - Google Patents

Image processing device, image processing method, image processing program, and image monitoring system Download PDF

Info

Publication number
WO2018122895A1
WO2018122895A1 PCT/JP2016/088620 JP2016088620W WO2018122895A1 WO 2018122895 A1 WO2018122895 A1 WO 2018122895A1 JP 2016088620 W JP2016088620 W JP 2016088620W WO 2018122895 A1 WO2018122895 A1 WO 2018122895A1
Authority
WO
WIPO (PCT)
Prior art keywords
tag
area
video
additional information
camera
Prior art date
Application number
PCT/JP2016/088620
Other languages
French (fr)
Japanese (ja)
Inventor
司 深澤
浩平 岡原
古木 一朗
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2017528863A priority Critical patent/JP6289762B1/en
Priority to PCT/JP2016/088620 priority patent/WO2018122895A1/en
Publication of WO2018122895A1 publication Critical patent/WO2018122895A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Provided is an image processing device (10) for superimposing and displaying additional information relating to an object (41), which is an object of interest present in a camera image, as a tag, said device including: an object detection unit (12); a tag information management unit (13) for managing a database in which the additional information is stored; a tag arrangement determination unit (14) for performing first processing for acquiring additional information relating to the detected object (41), second processing for setting a search region including the detected object (41), and third processing for determining, when a background image region (that is, a region other than a foreground image region composed of a region occupied by the object and a region occupied by a tag) in the search region has a displayable region in which a tag (51) can be displayed as additional information, the display position of the tag (51) in the displayable region; and a tag superimposing unit (15) for superimposing and displaying the tag (51) on a camera image.

Description

映像処理装置、映像処理方法、映像処理プログラム、及び映像監視システムVideo processing apparatus, video processing method, video processing program, and video monitoring system
 本発明は、カメラ映像内に存在する着目対象としてのオブジェクトに関連する付加情報を、表示装置においてカメラ映像上にタグとして重畳表示させるための映像処理装置、映像処理方法、及び映像処理プログラム、並びに、前記映像処理装置を含む映像監視システムに関する。 The present invention relates to a video processing apparatus, a video processing method, a video processing program, and a video processing program for superimposing and displaying additional information related to an object as a target of interest present in a camera video as a tag on the camera video on a display device, and The present invention relates to a video monitoring system including the video processing device.
 従来、カメラ撮影によって取得された映像データに基づいて表示装置に表示されるカメラ映像(撮影画像)上に、付加情報を重畳表示させるシステムがある。 Conventionally, there is a system in which additional information is superimposed and displayed on a camera video (captured image) displayed on a display device based on video data acquired by camera shooting.
 例えば、特許文献1は、舞台を見ている鑑賞者が装着しているヘッドマウントディスプレイに、字幕などの付加情報を表示するシステムを提案している。このシステムは、ユーザーの目線方向に存在する画像から人物像をオブジェクトとして検出し、人物像に関連する付加情報を表示する。 For example, Patent Document 1 proposes a system for displaying additional information such as subtitles on a head mounted display worn by a viewer watching the stage. This system detects a human figure as an object from an image existing in the direction of the user's line of sight, and displays additional information related to the human figure.
 また、特許文献2は、カメラの撮影方向が変化したときに、カメラ映像内で位置を変化させるオブジェクトに付加情報を追従させる装置を提案している。 Also, Patent Document 2 proposes a device that causes additional information to follow an object whose position changes in the camera image when the shooting direction of the camera changes.
特開2012-108793号公報(例えば、段落0055~0057)JP 2012-108793 A (for example, paragraphs 0055 to 0057) 特開2014-086988号公報(例えば、段落0035~0044)JP 2014-086988 A (for example, paragraphs 0035 to 0044)
 しかしながら、上記従来の技術では、表示装置に表示されるカメラ映像(撮影画像)において、あるオブジェクトの上に他のオブジェクトの付加情報が重なって表示されて、又は、あるオブジェクトの付加情報の上に他のオブジェクトの付加情報が重なって表示されて、オブジェクト及び付加情報を監視することが難しい場合があるという問題がある。 However, in the above-described conventional technology, in the camera image (captured image) displayed on the display device, additional information of another object is displayed on top of a certain object or displayed on the additional information of a certain object. There is a problem that it may be difficult to monitor the object and the additional information because the additional information of the other objects are displayed in an overlapping manner.
 本発明は、上記のような課題を解決するためになされたものであり、表示装置に表示されるカメラ映像において、オブジェクト及びこれに関連する付加情報としてのタグの監視を容易にすることができる映像処理装置、映像処理方法、及び映像処理プログラム、並びに、前記映像処理装置を含む映像監視システムを提供することを目的とする。 The present invention has been made to solve the above-described problems, and can easily monitor an object and a tag as additional information related to the object in a camera image displayed on a display device. It is an object of the present invention to provide a video processing device, a video processing method, a video processing program, and a video monitoring system including the video processing device.
 本発明の一態様に係る映像処理装置は、カメラ撮影によって取得されたカメラ映像内に存在する着目対象としてのオブジェクトに関連する付加情報を、表示装置において前記カメラ映像にタグとして重畳表示させる映像処理装置であって、前記カメラ映像において前記オブジェクトが占める領域と前記タグが占める領域とを前景画領域とし、前記カメラ映像における前記前景画領域以外の領域を背景画領域とし、前記オブジェクトを検出するオブジェクト検出部と、前記付加情報を格納するデータベースを管理するタグ情報管理部と、前記オブジェクト検出部によって検出された前記オブジェクトに関連する前記付加情報を前記タグ情報管理部から取得する第1の処理と、前記オブジェクト検出部によって検出された前記オブジェクトを含む検索領域を設定する第2の処理と、前記検索領域内における前記背景画領域に前記第1の処理で取得された前記付加情報としてのタグを表示することができる表示可能領域がある場合に、前記タグの表示位置を前記表示可能領域内に決定する第3の処理とを行うタグ配置決定部と、前記カメラ映像に前記タグを重畳表示させる合成映像データを生成するタグ重畳部とを有する。 A video processing apparatus according to an aspect of the present invention is a video processing that causes a display device to superimpose and display additional information related to an object as a target of interest existing in a camera video acquired by camera shooting as a tag on the camera video. An apparatus for detecting an object, wherein a region occupied by the object and a region occupied by the tag in the camera video are set as a foreground image region, and a region other than the foreground image region in the camera video is set as a background image region. A detection unit; a tag information management unit that manages a database that stores the additional information; and a first process that acquires the additional information related to the object detected by the object detection unit from the tag information management unit. , Including the object detected by the object detection unit. When there is a displayable area that can display a tag as the additional information acquired in the first process in the background image area in the search area and the second process of setting the search area, A tag arrangement determining unit that performs a third process of determining a display position of the tag within the displayable region; and a tag superimposing unit that generates composite video data for displaying the tag superimposed on the camera video.
 本発明の他の態様に係る映像処理方法は、カメラ撮影によって取得されたカメラ映像内に存在する着目対象としてのオブジェクトに関連する付加情報を、表示装置において前記カメラ映像にタグとして重畳表示させる映像処理方法であって、前記カメラ映像において前記オブジェクトが占める領域と前記タグが占める領域とを前景画領域とし、前記カメラ映像における前記前景画領域以外の領域を背景画領域とし、前記オブジェクトを検出する検出ステップと、前記検出ステップによって検出された前記オブジェクトに関連する前記付加情報を、前記付加情報を管理するデータベースから取得する第1の処理と、前記検出ステップによって検出された前記オブジェクトを含む検索領域を設定する第2の処理と、前記検索領域内における前記背景画領域に前記第1の処理で取得された前記付加情報としてのタグを表示することができる表示可能領域がある場合に、前記タグの表示位置を前記表示可能領域内に決定する第3の処理とを行う配置決定ステップと、前記カメラ映像に前記タグを重畳表示させる合成映像データを生成する重畳ステップとを有する。 The video processing method according to another aspect of the present invention is a video in which additional information related to an object as a target of interest present in a camera video acquired by camera shooting is superimposed and displayed as a tag on the camera video on a display device. In the processing method, an area occupied by the object and an area occupied by the tag in the camera image are set as a foreground image area, and an area other than the foreground image area in the camera image is set as a background image area, and the object is detected. A search step including a detection step, a first process for acquiring the additional information related to the object detected by the detection step from a database managing the additional information, and a search area including the object detected by the detection step And a second process for setting the A third display that determines a display position of the tag within the displayable area when there is a displayable area that can display the tag as the additional information acquired in the first process in the scene area; An arrangement determining step for performing processing, and a superimposing step for generating composite video data for superimposing and displaying the tag on the camera video.
 本発明によれば、表示装置に表示されるカメラ映像において、オブジェクトに関連する付加情報としてのタグを背景画領域に配置するので、他のオブジェクト及びその付加情報の監視が容易になるという効果がある。 According to the present invention, in the camera image displayed on the display device, the tag as the additional information related to the object is arranged in the background image area, so that it is easy to monitor other objects and the additional information. is there.
本発明の実施の形態1に係る映像処理装置の概略構成を示す機能ブロック図である。It is a functional block diagram which shows schematic structure of the video processing apparatus which concerns on Embodiment 1 of this invention. 実施の形態1に係る映像処理装置のハードウェア構成を示す図である。2 is a diagram illustrating a hardware configuration of a video processing apparatus according to Embodiment 1. FIG. 実施の形態1におけるタグ情報テーブルDB部に格納されるタグ情報テーブルの一例を表形式で示す図である。It is a figure which shows an example of the tag information table stored in the tag information table DB part in Embodiment 1 in a table format. 実施の形態1におけるオブジェクト検出部によるオブジェクト検出の一例を示す図である。6 is a diagram illustrating an example of object detection by an object detection unit according to Embodiment 1. FIG. (a)から(c)は、実施の形態1におけるタグの他の例を示す図である。(A)-(c) is a figure which shows the other example of the tag in Embodiment 1. FIG. 実施の形態1におけるオブジェクト検出部によって作成されたオブジェクト情報リストの一例を表形式で示す図である。6 is a diagram illustrating an example of an object information list created by an object detection unit according to Embodiment 1 in a table format. FIG. 実施の形態1における検索領域を説明するための図である。6 is a diagram for explaining a search area in the first embodiment. FIG. 実施の形態1における拡大された検索領域を説明するための図である。FIG. 10 is a diagram for explaining an enlarged search region in the first embodiment. 実施の形態1における映像受信部の動作を示すフローチャートである。3 is a flowchart illustrating an operation of a video reception unit in the first embodiment. 実施の形態1におけるタグ情報管理部の動作を示すフローチャートである。4 is a flowchart illustrating an operation of a tag information management unit in the first embodiment. 実施の形態1におけるオブジェクト検出部の動作を示すフローチャートである。3 is a flowchart illustrating an operation of an object detection unit according to the first embodiment. 実施の形態1におけるタグ配置決定部の動作を示すフローチャートである。6 is a flowchart showing an operation of a tag arrangement determining unit in the first embodiment. 実施の形態1におけるタグ重畳部の動作を示すフローチャートである。6 is a flowchart showing the operation of the tag superposition unit in the first embodiment. 実施の形態2に係る映像処理装置のタグ情報テーブルDB部に格納されているタグ情報テーブルの一例を示す図である。It is a figure which shows an example of the tag information table stored in the tag information table DB part of the video processing apparatus which concerns on Embodiment 2. FIG. (a)から(c)は、実施の形態2に係る映像処理装置の効果を説明するための図である。(A)-(c) is a figure for demonstrating the effect of the video processing apparatus which concerns on Embodiment 2. FIG. 実施の形態3に係る映像処理装置のタグ情報テーブルDB部に格納されているタグ情報テーブルの一例を示す図である。It is a figure which shows an example of the tag information table stored in the tag information table DB part of the video processing apparatus which concerns on Embodiment 3. FIG. (a)から(c)は、実施の形態3に係る映像処理装置の効果を説明するための図である。(A)-(c) is a figure for demonstrating the effect of the video processing apparatus which concerns on Embodiment 3. FIG. 実施の形態1から3に係る映像処理装置の変形例の概略構成を示す機能ブロック図である。6 is a functional block diagram illustrating a schematic configuration of a modification of the video processing device according to Embodiments 1 to 3. FIG.
 以下に、本発明の実施の形態に係る映像処理装置、映像処理方法、映像処理プログラム、及び映像監視システムを、添付図面を参照しながら説明する。実施の形態に係る映像処理装置は、カメラ映像内の着目対象としてのオブジェクト(被写体)に関連する付加情報としてのタグを、カメラ映像上の適切な位置に配置させることができるタグ配置装置である。また、実施の形態に係る映像処理方法及び映像処理プログラムはそれぞれ、カメラ映像内のオブジェクトに関連する付加情報としてのタグをカメラ映像上の適切な位置に配置させるためのタグ配置方法及びタグ配置プログラムである。また、実施の形態に係る映像監視システムは、1台以上のカメラと、映像処理装置と、1台以上の表示装置とを有するシステムである。以下の実施の形態は、例にすぎず、本発明の範囲内で種々の変更が可能である。 Hereinafter, a video processing device, a video processing method, a video processing program, and a video monitoring system according to embodiments of the present invention will be described with reference to the accompanying drawings. The video processing device according to the embodiment is a tag placement device that can place a tag as additional information related to an object (subject) as a target of interest in a camera video at an appropriate position on the camera video. . Also, the video processing method and the video processing program according to the embodiments are respectively a tag placement method and a tag placement program for placing a tag as additional information related to an object in a camera video at an appropriate position on the camera video. It is. The video monitoring system according to the embodiment is a system having one or more cameras, a video processing device, and one or more display devices. The following embodiments are merely examples, and various modifications can be made within the scope of the present invention.
《1》実施の形態1
《1-1》構成
 図1は、本発明の実施の形態1に係る映像処理装置10の概略構成を示す機能ブロック図である。映像処理装置10は、実施の形態1に係る映像処理方法及び実施の形態1に係る映像処理プログラムを実施することができる装置である。
<< 1 >> Embodiment 1
<< 1-1 >> Configuration FIG. 1 is a functional block diagram showing a schematic configuration of a video processing apparatus 10 according to Embodiment 1 of the present invention. The video processing apparatus 10 is an apparatus capable of executing the video processing method according to the first embodiment and the video processing program according to the first embodiment.
 図1において、映像処理装置10は、被写体を撮影する撮影装置としてのカメラ20と、入力される映像データに基づく映像を画面31に表示する表示装置30とに、有線又は無線で、通信可能に接続されている。映像処理装置10とカメラ20の間及び映像処理装置10と表示装置30との間に、インターネットなどのようなネットワークが介在してもよい。また、カメラ20、映像処理装置10、及び表示装置30は、工場などの施設内又は公共エリア内などをカメラ映像によって監視する映像監視システムを構成することができる。また、映像処理装置10に、複数台のカメラが接続されてもよく、複数台のカメラに対応する複数台の表示装置が接続されてもよい。また、映像処理装置10に、複数台のカメラが接続され、表示装置30に複数台のカメラに対応する複数の映像が順に表示されてもよい。 In FIG. 1, a video processing device 10 can communicate with a camera 20 as a photographing device for photographing a subject and a display device 30 that displays a video based on inputted video data on a screen 31 in a wired or wireless manner. It is connected. A network such as the Internet may be interposed between the video processing device 10 and the camera 20 and between the video processing device 10 and the display device 30. In addition, the camera 20, the video processing device 10, and the display device 30 can constitute a video monitoring system that monitors the inside of a facility such as a factory or a public area with a camera video. In addition, a plurality of cameras may be connected to the video processing device 10, and a plurality of display devices corresponding to the plurality of cameras may be connected. In addition, a plurality of cameras may be connected to the video processing device 10, and a plurality of videos corresponding to the plurality of cameras may be sequentially displayed on the display device 30.
 映像処理装置10は、カメラ20による撮影によって取得された映像データD1に対応するカメラ映像内に存在する着目対象としてのオブジェクト(被写体)41に関連する付加情報を、表示装置30の画面31におけるカメラ映像上にタグ51として重畳表示させることができる。本出願では、画面31におけるカメラ映像において1又は複数のオブジェクト41が占める領域と1又は複数のタグ51が占める領域とを「前景画領域」と言い、画面31のカメラ映像における前景画領域以外の領域を「背景画領域」と言う。 The video processing device 10 uses the camera 31 on the screen 31 of the display device 30 to display additional information related to the object (subject) 41 as a target of interest that exists in the camera video corresponding to the video data D1 acquired by photographing with the camera 20. It can be displayed superimposed on the video as a tag 51. In the present application, an area occupied by one or more objects 41 and an area occupied by one or more tags 51 in the camera video on the screen 31 are referred to as a “foreground image area”, and other than the foreground image area in the camera video on the screen 31. The area is referred to as a “background image area”.
 図1に示されるように、映像受信部11と、オブジェクト検出部12と、記憶部に記憶された付加情報としてのタグ情報のデータベース(タグ情報テーブルDB)を管理する付加情報管理部としてのタグ情報管理部13とを備える。映像処理装置10は、タグ情報を記憶する記憶部としてのタグ情報テーブルDB(DataBase)部17を備えてもよい。ただし、タグ情報テーブルDB部17は、映像処理装置10の外部の記憶装置であってもよい。また、映像処理装置10は、付加情報配置決定部としてのタグ配置決定部14と、付加情報重畳部としてのタグ重畳部15と、映像出力部16とを備える。 As shown in FIG. 1, a tag as an additional information management unit that manages a database (tag information table DB) of tag information as additional information stored in a video reception unit 11, an object detection unit 12, and a storage unit. And an information management unit 13. The video processing apparatus 10 may include a tag information table DB (DataBase) unit 17 as a storage unit that stores tag information. However, the tag information table DB unit 17 may be a storage device external to the video processing device 10. Further, the video processing apparatus 10 includes a tag placement determination unit 14 as an additional information placement determination unit, a tag superposition unit 15 as an additional information superposition unit, and a video output unit 16.
 映像受信部11は、カメラ撮影によって生成されたカメラ映像としての映像データD1を受信し、映像データD1に必要な処理を施して、映像データを出力する。映像信号D1が、圧縮符号化データである場合には、映像受信部11は、受信された圧縮符号化データをデコードすることで映像データ(非圧縮の画像データ)として、例えば、RAW画像データD2を生成する。映像受信部11は、RAW画像データD2をオブジェクト検出部12及びタグ重畳部15に提供する。 The video receiving unit 11 receives video data D1 as camera video generated by camera shooting, performs necessary processing on the video data D1, and outputs video data. When the video signal D1 is compression encoded data, the video reception unit 11 decodes the received compression encoded data as video data (uncompressed image data), for example, RAW image data D2. Is generated. The video receiving unit 11 provides the RAW image data D <b> 2 to the object detection unit 12 and the tag superimposing unit 15.
 タグ情報管理部13は、オブジェクトを特定する識別情報(ID)であるオブジェクトIDと、このオブジェクトIDによって特定されるオブジェクトのタグ情報とを紐付けし、紐付けされたオブジェクトIDとタグ情報とをタグ情報テーブルDBとして管理する機能を持つ。タグ情報管理部13は、オブジェクト検出部12によって検出されたオブジェクトに基づいて指定されたオブジェクトIDに対応するタグ情報を、タグ配置決定部14に提供する機能を持つ。 The tag information management unit 13 associates an object ID that is identification information (ID) that identifies an object with the tag information of the object identified by the object ID, and associates the associated object ID and tag information. It has a function of managing as a tag information table DB. The tag information management unit 13 has a function of providing tag information corresponding to the object ID specified based on the object detected by the object detection unit 12 to the tag arrangement determination unit 14.
 図1に示される例では、タグ情報管理部13は、映像処理装置10の一部として示されているが、映像処理装置10から分離された外部装置の一部であってもよい。タグ情報管理部13が外部装置の一部である場合には、映像処理装置10と外部装置との各々は、両者間で通信を行うための通信部を備える。映像処理装置10と外部装置と間の通信方式(通信規格)及び通信手段(有線通信又は無線通信、専用線又はネットワーク経由など)は、特に限定されない。タグ情報管理部13によって管理されるタグ情報テーブルDBは、ユーザー操作などによって、オブジェクトIDとタグ情報の追加及び削除が可能なDBである。 In the example shown in FIG. 1, the tag information management unit 13 is shown as a part of the video processing device 10, but may be a part of an external device separated from the video processing device 10. When the tag information management unit 13 is a part of an external device, each of the video processing device 10 and the external device includes a communication unit for performing communication between them. The communication method (communication standard) and communication means (wired communication or wireless communication, dedicated line or via network) between the video processing device 10 and the external device are not particularly limited. The tag information table DB managed by the tag information management unit 13 is a DB in which an object ID and tag information can be added and deleted by a user operation or the like.
 オブジェクト検出部12は、映像受信部11から受け取ったRAW画像データD2に含まれる人物などのような着目対象としてのオブジェクト41を検出し、検出されたオブジェクトを認識(識別)して、タグ配置決定部14にオブジェクト41に関する情報D3を提供する。オブジェクトは、例えば、公共エリアを歩行する人物、工場内の製造ライン上で移動する生産物などであるが、これらに限定されない。 The object detection unit 12 detects an object 41 as a target of interest such as a person included in the RAW image data D2 received from the video reception unit 11, recognizes (identifies) the detected object, and determines tag placement. Information D3 related to the object 41 is provided to the unit 14. The object is, for example, a person walking in a public area, a product moving on a production line in a factory, or the like, but is not limited thereto.
 タグ配置決定部14は、オブジェクト検出部12によって検出されたオブジェクト41に関する情報D3を受け取り、タグ情報管理部13から、検出されたオブジェクト41に関連するタグ情報D4を取得する処理(第1の処理)を行う。次に、タグ配置決定部14は、検出されたオブジェクト41を含む検索領域(例えば、オブジェクト41を囲う矩形領域)を設定する処理(第2の処理)を行う。次に、タグ配置決定部14は、設定された検索領域内における背景画領域に第1の処理で取得されたタグ情報をタグ51として表示することができる表示可能領域があるか否かを判断し、表示可能領域があると判断した場合に、タグ51の表示位置をこの表示可能領域内に決定する処理(第3の処理)を行う。 The tag arrangement determination unit 14 receives information D3 related to the object 41 detected by the object detection unit 12, and acquires tag information D4 related to the detected object 41 from the tag information management unit 13 (first processing) )I do. Next, the tag arrangement determining unit 14 performs a process (second process) for setting a search area including the detected object 41 (for example, a rectangular area surrounding the object 41). Next, the tag arrangement determination unit 14 determines whether or not there is a displayable area in which the tag information acquired in the first process can be displayed as the tag 51 in the background image area in the set search area. When it is determined that there is a displayable area, a process (third process) for determining the display position of the tag 51 within the displayable area is performed.
 タグ配置決定部14は、検索領域内における背景画領域に、タグ51の表示可能領域がない場合に、検索領域を変更する処理(例えば、検索領域を拡大する処理)(第4の処理)を行い、第4の処理の後に、第3の処理を再度行う。 The tag placement determination unit 14 performs a process of changing the search area (for example, a process of expanding the search area) (fourth process) when there is no displayable area of the tag 51 in the background image area in the search area. And after the fourth process, the third process is performed again.
 タグ重畳部15は、表示装置30の画面31に表示されるカメラ映像にオブジェクト41に関連するタグ情報D5に基づくタグ51を重畳表示させるための合成映像データD6を生成する。 The tag superimposing unit 15 generates composite video data D6 for superimposing and displaying the tag 51 based on the tag information D5 related to the object 41 on the camera video displayed on the screen 31 of the display device 30.
 映像出力部16は、合成映像データD6に基づく映像データD7を表示装置30に出力する。 The video output unit 16 outputs video data D7 based on the composite video data D6 to the display device 30.
 図2は、実施の形態1に係る映像処理装置10のハードウェア構成を示す図である。図2に示されるように、映像処理装置10は、主要なハードウェア構成として、情報処理部としてのメインプロセッサ101と、情報記憶部としてのメインメモリ102と、カメラインタフェース103と、画像処理用の情報処理部としての画像処理プロセッサ104と、画像処理用の情報記憶部としての画像処理メモリ105と、表示インタフェース106と、入力インタフェース107と、これらの構成101~107が接続された信号経路108とを備える。 FIG. 2 is a diagram illustrating a hardware configuration of the video processing apparatus 10 according to the first embodiment. As shown in FIG. 2, the video processing apparatus 10 includes, as main hardware configurations, a main processor 101 as an information processing unit, a main memory 102 as an information storage unit, a camera interface 103, and an image processing unit. An image processing processor 104 as an information processing unit, an image processing memory 105 as an information processing unit for image processing, a display interface 106, an input interface 107, and a signal path 108 to which these components 101 to 107 are connected Is provided.
 カメラ20は、映像処理装置10のカメラインタフェース103と有線又は無線で通信可能に接続されている。また、カメラ20とカメラインタフェース103は、IP(Internet Protocol)ネットワークなどのネットワークを経由して接続されてもよく、又は、同軸ケーブルなどの専用の通信線によって接続されてもよい。このように、カメラ20とカメラインタフェース103との接続方法は、特に限定されない。 The camera 20 is connected to the camera interface 103 of the video processing apparatus 10 so as to be communicable by wire or wirelessly. The camera 20 and the camera interface 103 may be connected via a network such as an IP (Internet Protocol) network, or may be connected by a dedicated communication line such as a coaxial cable. Thus, the connection method between the camera 20 and the camera interface 103 is not particularly limited.
 カメラインタフェース103は、カメラ20から送信されたカメラ映像としての映像データD1を受信する。メインプロセッサ101は、カメラインタフェース103で受信されたカメラ映像に、タグを重畳表示させるための画像処理を行うタグ配置プログラムを実行することができる。 The camera interface 103 receives video data D1 as a camera video transmitted from the camera 20. The main processor 101 can execute a tag placement program for performing image processing for displaying a tag superimposed on the camera video received by the camera interface 103.
 メインメモリ102は、メインプロセッサ101によって直接アクセスされる記憶装置である。メインメモリ102には、オブジェクトIDに紐付けられたタグ情報が保持されている。メインメモリ102は、例えば、半導体記憶装置である。メインメモリ102の他に、HDD(ハードディスクドライブ)のような大容量記憶装置を備えてもよい。メインプロセッサ101は、メインメモリ102に記憶されたタグ配置プログラムを読み出して実行することで、図1に示されるオブジェクト検出部12が行う処理、タグ情報管理部13が行う処理、タグ配置決定部14が行う処理、タグ重畳部15が行う処理を実行することができる。 The main memory 102 is a storage device that is directly accessed by the main processor 101. The main memory 102 holds tag information associated with the object ID. The main memory 102 is, for example, a semiconductor memory device. In addition to the main memory 102, a mass storage device such as an HDD (Hard Disk Drive) may be provided. The main processor 101 reads out and executes the tag placement program stored in the main memory 102, thereby performing processing performed by the object detection unit 12 illustrated in FIG. 1, processing performed by the tag information management unit 13, and tag placement determination unit 14 The process performed by the tag superimposing unit 15 can be executed.
 画像処理プロセッサ104は、行列演算及び浮動小数点演算を高速に実行することができる画像処理に特化した専用プロセッサである。画像処理メモリ105は、画像処理プロセッサ104によって直接アクセスされる記憶装置である。ただし、メインプロセッサ101が、画像処理プロセッサ104の動作を代行し、メインメモリ102が、画像処理メモリ105の機能を代行する場合には、画像処理プロセッサ104と画像処理メモリ105とを備える必要はない。 The image processor 104 is a dedicated processor specialized in image processing that can execute matrix operations and floating point operations at high speed. The image processing memory 105 is a storage device that is directly accessed by the image processing processor 104. However, when the main processor 101 performs the operation of the image processing processor 104 and the main memory 102 performs the function of the image processing memory 105, it is not necessary to include the image processing processor 104 and the image processing memory 105. .
 表示インタフェース106は、表示装置30と接続されており、カメラ映像にタグ51を重畳して表示するための映像データ信号D7を表示装置30に提供する。 The display interface 106 is connected to the display device 30 and provides the display device 30 with a video data signal D7 for displaying the tag 51 superimposed on the camera video.
 図3は、実施の形態1におけるタグ情報テーブルDB部17に格納されるタグ情報テーブルの一例を表形式で示す図である。図3に示されるように、タグ情報テーブル17aは、項目番号(項番)ごとに、互いに紐付けされたオブジェクトIDとタグ情報とを有する。オブジェクトIDは、オブジェクト検出部12によって検出され、認識されたオブジェクトに付与されたID(識別情報)である。 FIG. 3 is a diagram showing an example of a tag information table stored in the tag information table DB unit 17 according to the first embodiment in a table format. As shown in FIG. 3, the tag information table 17a has an object ID and tag information associated with each other for each item number (item number). The object ID is an ID (identification information) given to the object detected and recognized by the object detection unit 12.
 タグ情報は、オブジェクトに関連する付加情報である。タグ情報の一例は、オブジェクトが会社に帰属する人物(社員)である場合に、オブジェクトとしての人物が所属する会社の社員番号である。タグ情報の他の例は、オブジェクトが工場の生産ラインを移動する工業製品である場合に、オブジェクトとしての工業製品の製造番号である。タグ情報のさらに他の例は、オブジェクトが公共エリアを歩行する人物(不特定の人物)である場合に、オブジェクトとしての人物の特徴を表す情報であるおおよその年齢(年代)及び性別である。図3では、オブジェクトIDに1つのタグ情報が紐付けられたタグ情報テーブルを示しているが、オブジェクトIDに2つ以上のタグ情報が紐付けられたタグ情報テーブルを用いてもよい。 Tag information is additional information related to the object. An example of tag information is an employee number of a company to which a person as an object belongs when the object is a person (employee) belonging to the company. Another example of tag information is a serial number of an industrial product as an object when the object is an industrial product that moves on a production line of a factory. Still another example of the tag information is an approximate age (age) and gender, which is information indicating the characteristics of a person as an object when the object is a person walking in a public area (unspecified person). Although FIG. 3 shows a tag information table in which one tag information is associated with the object ID, a tag information table in which two or more tag information is associated with the object ID may be used.
 図4は、実施の形態1におけるオブジェクト検出部12によるオブジェクト検出の一例を示す図である。オブジェクト検出部12は、映像受信部11から受け取ったカメラ映像としての映像データ(例えば、RAW画像データ)D2からオブジェクト41a,41b,41cを検出する。オブジェクト41a,41b,41cの検出とは、映像受信部11から受け取ったRAW画像データD2におけるオブジェクト41a,41b,41cの位置を取得することである。 FIG. 4 is a diagram illustrating an example of object detection by the object detection unit 12 according to the first embodiment. The object detection unit 12 detects the objects 41a, 41b, and 41c from video data (for example, RAW image data) D2 as a camera video received from the video reception unit 11. The detection of the objects 41a, 41b, and 41c is to acquire the positions of the objects 41a, 41b, and 41c in the RAW image data D2 received from the video receiving unit 11.
 オブジェクト41a,41b,41cの位置は、例えば、オブジェクト41a,41b,41cを代表する代表点座標(例えば、オブジェクト41a,41b,41cの中心位置の座標)とオブジェクト41a,41b,41cの大きさ(例えば、オブジェクト41a,41b,41cを囲う矩形領域51a,51b,51cの大きさ)とで特定される。 The positions of the objects 41a, 41b, 41c are, for example, representative point coordinates representing the objects 41a, 41b, 41c (for example, coordinates of the center positions of the objects 41a, 41b, 41c) and the sizes of the objects 41a, 41b, 41c ( For example, it is specified by the rectangular areas 51a, 51b, and 51c surrounding the objects 41a, 41b, and 41c.
 オブジェクト41a,41b,41cを囲う領域が、オブジェクト41a,41b,41cの外周に接する枠線の内側の矩形領域である場合には、オブジェクト41a,41b,41cの大きさは、矩形領域51a,51b,51cの4つの頂点の座標(角部座標)を用いて表わすことができる。ただし、オブジェクト41a,41b,41cの大きさを表す指標は、矩形領域51a,51b,51cの4つの角部座標に限定されるものではない。オブジェクト41a,41b,41cの大きさは、矩形領域51a,51b,51cの枠線の対角の2点の角部座標(例えば、左上の角部座標と右下の角部座標)などのような、他の指標で表されてもよい。また、オブジェクト41a,41b,41cを囲う領域は、着目対象であるオブジェクト41a,41b,41cの形状に応じて矩形以外の形状(例えば、三角形、五角以上の多角形、円形、楕円形などの他の形状)とすることも可能である。 When the area surrounding the objects 41a, 41b, and 41c is a rectangular area inside the frame line that touches the outer periphery of the objects 41a, 41b, and 41c, the size of the objects 41a, 41b, and 41c is the rectangular area 51a, 51b. , 51c can be expressed using the coordinates (corner coordinates) of the four vertices. However, the index indicating the size of the objects 41a, 41b, and 41c is not limited to the four corner coordinates of the rectangular regions 51a, 51b, and 51c. The sizes of the objects 41a, 41b, and 41c are the corner coordinates of the two diagonal points of the rectangular regions 51a, 51b, and 51c (for example, the upper left corner coordinates and the lower right corner coordinates). It may be represented by other indicators. Further, the area surrounding the objects 41a, 41b, 41c is a shape other than a rectangle (for example, a triangle, a polygon having five or more corners, a circle, an ellipse, etc.) according to the shape of the object 41a, 41b, 41c as a target of interest. It is also possible to adopt a shape of
 オブジェクト41a,41b,41cの検出には、例えば、RAW画像データD2から動体を抽出する方法を用いることができる。動体を抽出する方法としては、背景差分(background subtraction)を用いて前景画領域を抽出する方法がある。 For the detection of the objects 41a, 41b, 41c, for example, a method of extracting a moving object from the RAW image data D2 can be used. As a method of extracting a moving object, there is a method of extracting a foreground image area using a background difference.
 背景差分とは、観測画像を事前に取得した画像と比較することで、事前に取得した画像に存在しない物体を抽出する処理を指す。観測画像において、事前に取得した画像に存在しない物体が占める領域は、オブジェクトが存在する領域であり、前景画領域に含まれる。ただし、オブジェクトを検出する方法は、背景差分に限られず、他の方法を採用してもよい。 The background difference refers to a process of extracting an object that does not exist in the previously acquired image by comparing the observed image with the previously acquired image. In the observation image, an area occupied by an object that does not exist in the image acquired in advance is an area where the object exists, and is included in the foreground image area. However, the method for detecting the object is not limited to the background difference, and other methods may be adopted.
 図4に示される例では、3つのオブジェクト41a,41b,41cが検出されている。図4における右側のオブジェクト41aの矩形領域51aの左上の角部座標は(1520,350)であり、右下の角部座標は(1570,450)である。図4における中央のオブジェクト41bの矩形領域51bの左上の角部座標は(900,300)であり、右下の角部座標は(950,400)である。図4における左側のオブジェクト41cの左上の矩形領域51cの角部座標は(400,800)であり、右下の角部座標は(450,900)である。 In the example shown in FIG. 4, three objects 41a, 41b, and 41c are detected. The upper left corner coordinates of the rectangular area 51a of the right object 41a in FIG. 4 are (1520, 350), and the lower right corner coordinates are (1570, 450). The upper left corner coordinates of the rectangular area 51b of the center object 41b in FIG. 4 are (900, 300), and the lower right corner coordinates are (950, 400). The corner coordinates of the upper left rectangular area 51c of the left object 41c in FIG. 4 are (400, 800), and the lower right corner coordinates are (450, 900).
 また、図4には、検出された3つのオブジェクト41a,41b,41cに関連するタグである矩形領域51a,51b,51cの枠線が表示されている。図4におけるタグは、オブジェクト41a,41b,41cを囲う枠線である。 Further, in FIG. 4, the frame lines of the rectangular areas 51a, 51b, 51c which are tags related to the detected three objects 41a, 41b, 41c are displayed. The tags in FIG. 4 are frame lines that surround the objects 41a, 41b, and 41c.
 図5(a)から(c)は、実施の形態1におけるタグの他の例を示す図である。図5(a)では、オブジェクト41dから延びる引出し線に付された番号がタグである。図5(b)では、オブジェクト41eの近傍に表示された番号がタグである。図5(c)では、オブジェクト41fの真上に表示されたオブジェクトを向いた矢印がタグである。タグは、表示画面においてオブジェクトを強調することができる表示であれば、他の表示形式であってもよい。 FIGS. 5A to 5C are diagrams showing another example of the tag in the first embodiment. In FIG. 5A, the number assigned to the leader line extending from the object 41d is a tag. In FIG. 5B, the number displayed in the vicinity of the object 41e is a tag. In FIG. 5C, an arrow pointing to the object displayed directly above the object 41f is a tag. The tag may be in another display format as long as the object can be highlighted on the display screen.
 オブジェクト検出部12は、オブジェクト41a,41b,41cの位置を取得し、オブジェクト41a,41b,41cごとにオブジェクトの認識を行い、オブジェクト41a,41b,41cの位置(例えば、中心座標)及び大きさと、オブジェクト41a,41b,41cに付与したオブジェクトIDとを紐付ける。オブジェクト検出部12は、オブジェクトの位置(例えば、中心座標)、オブジェクトの大きさ、及びオブジェクトIDを元にオブジェクト情報リストを作成する。 The object detection unit 12 acquires the positions of the objects 41a, 41b, and 41c, recognizes the objects for each of the objects 41a, 41b, and 41c, and positions and sizes of the objects 41a, 41b, and 41c (for example, center coordinates); The object IDs assigned to the objects 41a, 41b, and 41c are linked. The object detection unit 12 creates an object information list based on the position (for example, center coordinates) of the object, the size of the object, and the object ID.
 図6は、実施の形態1におけるオブジェクト検出部12によって作成されたオブジェクト情報リストの一例を表形式で示す図である。図6に示されるように、オブジェクト情報リストは、例えば、オブジェクトの位置(例えば、中心座標)、オブジェクトの大きさ、及びオブジェクトIDの3項目により構成される。オブジェクト検出部12は、作成したオブジェクト情報リストを、タグ配置決定部14に送信する。 FIG. 6 is a diagram illustrating an example of the object information list created by the object detection unit 12 according to the first embodiment in a table format. As illustrated in FIG. 6, the object information list includes, for example, three items of an object position (for example, center coordinates), an object size, and an object ID. The object detection unit 12 transmits the created object information list to the tag arrangement determination unit 14.
 タグ配置決定部14は、オブジェクト検出部12からオブジェクト情報リストを受け取り、このオブジェクト情報リストに記載されたオブジェクトIDを用いて、該当オブジェクトIDに関するタグ情報をタグ情報管理部13から取得する。 The tag arrangement determination unit 14 receives the object information list from the object detection unit 12, and acquires tag information related to the object ID from the tag information management unit 13 using the object ID described in the object information list.
 タグ配置決定部14は、オブジェクト検出部12で検出した着目対象であるオブジェクトの中心座標から任意のサイズを検索領域として設定する。ここでいう検索領域のサイズは、必ずしも固定されるものではなく、例えば、オブジェクト41a,41b,41cの大きさ(例えば、縦幅及び横幅)に対して2倍の大きさ(例えば、2倍の縦幅及び2倍の横幅)としてもよい。 The tag arrangement determination unit 14 sets an arbitrary size as a search area from the center coordinates of the object of interest detected by the object detection unit 12. The size of the search area here is not necessarily fixed. For example, the size of the object 41a, 41b, 41c (for example, vertical width and horizontal width) is twice as large (for example, twice as large). (Vertical width and double horizontal width).
 図7は、実施の形態1における検索領域61a,61b,61cを説明するための図である。図7では、3つのオブジェクト41a,41b,41cが検出されており、3つのオブジェクト41a,41b,41cを含む矩形の検索領域(矩形の破線)61a,61b,61cが設定されている。図7に示される例においては、検索領域61a,61b,61cの横幅は、オブジェクト41a,41b,41cの横幅の約3倍であり、検索領域61a,61b,61cの縦幅は、オブジェクト41a,41b,41cの縦幅の約3倍である。 FIG. 7 is a diagram for explaining the search areas 61a, 61b, 61c in the first embodiment. In FIG. 7, three objects 41a, 41b, and 41c are detected, and rectangular search areas (rectangular broken lines) 61a, 61b, and 61c including the three objects 41a, 41b, and 41c are set. In the example shown in FIG. 7, the horizontal width of the search areas 61a, 61b, 61c is about three times the horizontal width of the objects 41a, 41b, 41c, and the vertical width of the search areas 61a, 61b, 61c is the object 41a, It is about three times the vertical width of 41b and 41c.
 タグ配置決定部14は、設定した検索領域61a,61b,61cの中から前景画領域と背景画領域を区別して、背景画領域と認識した領域からタグを配置可能な領域を検索する。タグ配置決定部14によりオブジェクトに紐付けるタグの大きさは、予め決定されている。タグの大きさは、ユーザー指定で固定として決められているもよいし、タグの情報量に応じて可変であってもよい。ここでは、タグの大きさは、予め決められた固定の大きさである場合を説明する。 The tag arrangement determining unit 14 distinguishes the foreground image area and the background image area from the set search areas 61a, 61b, and 61c, and searches for an area where the tag can be arranged from the area recognized as the background image area. The size of the tag associated with the object is determined in advance by the tag placement determination unit 14. The size of the tag may be fixed as specified by the user, or may be variable according to the information amount of the tag. Here, a case will be described in which the size of the tag is a predetermined fixed size.
 タグ配置決定部14は、検索領域61a,61b,61cの中で背景画領域と判断された領域において、タグを配置可能な領域が見つかった場合に、タグの配置位置をタグ配置可能領域内に設定する。タグ配置決定部14により設定されたタグが占める領域は、前景画領域として認識される。検索領域61a,61b,61c内にタグを配置する領域が見つからない場合は、タグ配置決定部14は、検索領域を拡大する。 When the tag placement determining unit 14 finds an area in which the tag can be placed in the search areas 61a, 61b, and 61c, the tag placement position is within the tag placeable area. Set. The area occupied by the tag set by the tag arrangement determination unit 14 is recognized as a foreground image area. If no area for tag placement is found in the search areas 61a, 61b, 61c, the tag placement determination unit 14 expands the search area.
 図8は、実施の形態1における拡大された検索領域71bを説明するための図である。例えば、図8の中央のオブジェクト41bの検索領域61bにおいて、タグを配置可能な領域が見つからなかった場合は、タグ配置決定部14は、図8のオブジェクト41bにおいて、検索領域61bを拡大した検索領域71b(破線の矩形枠)を設定する。図8に示されるように、拡大された検索領域71bは、拡大前の検索領域61bを囲むように、検索領域61bよりも広い範囲に設定される。 FIG. 8 is a diagram for explaining the enlarged search area 71b in the first embodiment. For example, in the search area 61b of the center object 41b in FIG. 8, when the area where the tag can be arranged is not found, the tag arrangement determining unit 14 enlarges the search area 61b in the object 41b in FIG. 71b (dashed rectangular frame) is set. As shown in FIG. 8, the enlarged search area 71b is set in a wider range than the search area 61b so as to surround the search area 61b before the enlargement.
 タグ配置決定部14は、オブジェクトID、該当するタグ情報、タグを配置する座標(左上の角部座標と右下の角部座標)を持つタグ配置リストをタグ重畳部15に送る。 The tag placement determination unit 14 sends a tag placement list having an object ID, corresponding tag information, and coordinates for placing tags (upper left corner coordinates and lower right corner coordinates) to the tag superposition unit 15.
 タグ重畳部15は、タグ配置決定部14から受信したタグ配置リストを用いて、映像受信部11から渡されたカメラ映像にタグ情報を重畳させる。タグ重畳部15では、タグ配置リストにあるタグ情報を重畳し、カメラ映像にタグ情報を重畳した映像を映像出力部16に送信する。 The tag superimposing unit 15 superimposes tag information on the camera video passed from the video receiving unit 11 using the tag arrangement list received from the tag arrangement determining unit 14. The tag superimposing unit 15 superimposes tag information in the tag arrangement list, and transmits a video in which the tag information is superimposed on the camera video to the video output unit 16.
 映像出力部16は、タグ重畳部15から映像データD6を受け取り、映像データD6に基づく映像データD7を表示装置30に出力する。 The video output unit 16 receives the video data D6 from the tag superimposing unit 15 and outputs the video data D7 based on the video data D6 to the display device 30.
《1-2》動作
 図9は、実施の形態1における映像受信部11の動作を示すフローチャートである。図9に示されるように、映像受信部11は、カメラ20から送信されたカメラ映像である映像データD1を受信する(ステップS10)。次に、映像データD1が圧縮符号化データである場合には、映像受信部11は、映像データD1をデコードすることで、デコードされた映像データであるRAW画像データD2を出力する(ステップS11)。
<< 1-2 >> Operation FIG. 9 is a flowchart showing the operation of the video receiver 11 in the first embodiment. As shown in FIG. 9, the video receiver 11 receives video data D1 that is a camera video transmitted from the camera 20 (step S10). Next, when the video data D1 is compression-encoded data, the video reception unit 11 decodes the video data D1 and outputs RAW image data D2 that is decoded video data (step S11). .
 例えば、カメラ20からH.264形式で圧縮符号化された映像データD1がストリーミング配信される場合には、映像受信部11は、H.264形式の映像データに対応するデコードを行うことで、例えば、RGBA(Red,Green,Blue,Alpha)32ビットのRAW画像データD2を、オブジェクト検出部12とタグ重畳部15に供給する。デコード後のRAW画像データD2は、RGBA32ビットのRAW画像データに限定されず、非圧縮の画像データであれば、他の形式の画像データであってもよい。 For example, from camera 20 to H.264. When the video data D1 compression-encoded in the H.264 format is streamed, the video receiving unit 11 By performing decoding corresponding to video data in the H.264 format, for example, RGBA (Red, Green, Blue, Alpha) 32-bit RAW image data D2 is supplied to the object detection unit 12 and the tag superposition unit 15. The decoded RAW image data D2 is not limited to RGBA 32-bit RAW image data, and may be image data of other formats as long as it is uncompressed image data.
 図10は、実施の形態1におけるタグ情報管理部13の動作を示すフローチャートである。図10に示されるように、タグ情報管理部13は、タグ配置決定部14によって指定されたオブジェクトIDに紐付けされたタグ情報を、タグ情報テーブルDB部17から取得し(ステップS20)、オブジェクトIDと取得したタグ情報とを含む情報D4をタグ配置決定部14に提供する(ステップS21)。 FIG. 10 is a flowchart showing the operation of the tag information management unit 13 in the first embodiment. As shown in FIG. 10, the tag information management unit 13 acquires tag information associated with the object ID designated by the tag placement determination unit 14 from the tag information table DB unit 17 (step S20), and the object information Information D4 including the ID and the acquired tag information is provided to the tag arrangement determining unit 14 (step S21).
 図11は、実施の形態1におけるオブジェクト検出部12の動作を示すフローチャートである。図11に示されるように、オブジェクト検出部12は、映像受信部11から出力されたRAW画像データD2からオブジェクトの検出処理を行う(ステップS30)。オブジェクトの検出処理では、例えば、オブジェクトの中心座標と、オブジェクトのサイズとして左上と右上の角部座標を取得する。 FIG. 11 is a flowchart showing the operation of the object detection unit 12 in the first embodiment. As illustrated in FIG. 11, the object detection unit 12 performs an object detection process from the RAW image data D2 output from the video reception unit 11 (step S30). In the object detection processing, for example, the upper left corner coordinates and the upper right corner coordinates are acquired as the object center coordinates and the object size.
 オブジェクトの検出処理で1つ以上のオブジェクトが検出された場合(ステップS31においてYES)、オブジェクト検出部12は、検出されたオブジェクトの認識を行う(ステップS32)。オブジェクト検出部12は、オブジェクトが1つも検出できない場合(ステップS31においてNO)は処理を終了し、タグ配置決定部14に処理終了を通知する。 When one or more objects are detected in the object detection process (YES in step S31), the object detection unit 12 recognizes the detected object (step S32). If no object is detected (NO in step S31), the object detection unit 12 ends the process and notifies the tag placement determination unit 14 of the end of the process.
 オブジェクトの認識(ステップS32)は、一般的に、画像に映っているオブジェクト(例えば、人、動物、物など)を画像解析する機械学習の手法を用いて、行われる。オブジェクトの認識手法は、特に限定されない。続いて、オブジェクト検出部12は、認識したオブジェクトに対してオブジェクトIDを紐付けする(ステップS33)。オブジェクト検出部12は、オブジェクトの中心座標、オブジェクトの大きさ、オブジェクトIDを項目として持つオブジェクト情報リスト(図6)をタグ配置決定部14に提供する(ステップS34)。 Object recognition (step S32) is generally performed using a machine learning technique for image analysis of an object (for example, a person, an animal, an object, etc.) shown in an image. The object recognition method is not particularly limited. Subsequently, the object detection unit 12 associates an object ID with the recognized object (step S33). The object detection unit 12 provides the tag placement determination unit 14 with an object information list (FIG. 6) having the object center coordinates, the object size, and the object ID as items (step S34).
 図12は、実施の形態1におけるタグ配置決定部14の動作を示すフローチャートである。図12に示されるように、タグ配置決定部14は、オブジェクト検出部12から出力されたオブジェクト情報リスト(図6)を用いて、オブジェクトの個数分だけステップS40~S47の処理を繰り返す。 FIG. 12 is a flowchart showing the operation of the tag placement determination unit 14 in the first embodiment. As shown in FIG. 12, the tag arrangement determining unit 14 repeats the processes of steps S40 to S47 by the number of objects using the object information list (FIG. 6) output from the object detecting unit 12.
 まず、タグ配置決定部14は、該当オブジェクトIDのタグ情報をタグ情報管理部13から取得する(ステップS40)。 First, the tag arrangement determination unit 14 acquires the tag information of the corresponding object ID from the tag information management unit 13 (step S40).
 次に、タグ配置決定部14は、タグ情報管理部13から該当するオブジェクトIDのタグ情報を受け取り、1つのオブジェクトIDに対してタグを配置するための検索領域(図7における領域61a,61b,61cなど)を設定する(ステップS41)。このときの検索領域のサイズは、事前にユーザー指定された大きさであるが、オブジェクトの大きさに対して2倍の長さでの領域を検索領域としてもよい。このように、検索領域のサイズは、必ずしも固定されている必要はなく、オブジェクトのサイズに応じて変えられてもよい。 Next, the tag placement determination unit 14 receives the tag information of the corresponding object ID from the tag information management unit 13, and searches the region for placing a tag for one object ID ( regions 61a, 61b, 61 in FIG. 7). 61c etc.) are set (step S41). The size of the search area at this time is a size designated in advance by the user, but an area having a length twice the size of the object may be used as the search area. As described above, the size of the search area is not necessarily fixed, and may be changed according to the size of the object.
 次に、タグ配置決定部14は、設定した検索領域の中で背景画領域と前景画領域を区別する(ステップS42)。ここで、背景画領域とは、前景画領域以外の領域のことをいう。前景画領域は、該当オブジェクトが占める領域と、他のオブジェクトが占める領域と、他のオブジェクトのタグ領域とを含む。なお、事前に複数枚の画像を取得して背景モデルを構築し,その背景モデルと新たに観測された画像の比較により、変化した領域を前景画領域とし、それ以外の領域を背景画領域とすることも可能である。 Next, the tag arrangement determination unit 14 distinguishes the background image region and the foreground image region from the set search region (step S42). Here, the background image area means an area other than the foreground image area. The foreground area includes an area occupied by the object, an area occupied by another object, and a tag area of another object. A background model is constructed by acquiring multiple images in advance, and the changed area is defined as the foreground area by comparing the background model with the newly observed image, and the other areas are defined as the background area. It is also possible to do.
 図4を用いて説明すると、該当オブジェクトと他オブジェクトのタグ領域の部分が前景画領域となり、それ以外の部分が背景画領域となる。ここで前景画領域は、該当オブジェクトと他のオブジェクトとオブジェクトのタグ領域とに限るものではない。例えば、カメラ映像上に重畳する映像を、前景画領域と設定することも可能である。 Referring to FIG. 4, the tag area of the corresponding object and the other object is the foreground image area, and the other part is the background image area. Here, the foreground picture area is not limited to the corresponding object, other objects, and the tag area of the object. For example, an image to be superimposed on a camera image can be set as a foreground image area.
 次に、タグ配置決定部14は、抽出した背景画領域において、タグ(例えば、図5(a)~(c)における51d,51e,51f)を配置可能な領域を検索する(ステップS43)。タグ配置決定部14が配置するタグの大きさは、タグ情報の文字数により可変とすることができ、また、固定の大きさとすることもできる。背景画領域におけるタグ配置可能な領域の検索手法として、検索領域の左上を原点として順次タグの配置領域を検索してもよい。タグ配置可能な領域の検索は、予め定められた位置から開始されてもよい。 Next, the tag arrangement determination unit 14 searches the extracted background image area for an area in which tags (for example, 51d, 51e, 51f in FIGS. 5A to 5C) can be arranged (step S43). The size of the tag placed by the tag placement determination unit 14 can be made variable depending on the number of characters in the tag information, and can also be a fixed size. As a search method for a region in which a tag can be placed in the background image region, the tag placement region may be sequentially searched using the upper left of the search region as the origin. The search for the area where the tag can be arranged may be started from a predetermined position.
 例えば、検索領域を任意サイズの格子状に配列された複数の格子領域に区分し、複数の格子領域の各々について、背景画領域であるか前景画領域であるかを判定し、この判定結果に基づいてタグの配置可能領域を見つけてもよい。その際、複数の格子領域の内のどの格子領域からタグ配置が可能かを検索する検索手順は、特に限定されない。タグ配置決定部14は、設定された検索領域の中でタグ配置可能な領域が見つかった場合(ステップS44においてYES)、タグ配置リストにタグの配置位置とタグ情報を出力する(ステップS45)。 For example, the search area is divided into a plurality of grid areas arranged in a grid of an arbitrary size, and it is determined whether each of the plurality of grid areas is a background image area or a foreground image area. Based on this, an area where the tag can be arranged may be found. At that time, a search procedure for searching from which lattice region of the plurality of lattice regions is possible is not particularly limited. When a tag placement area is found in the set search area (YES in step S44), the tag placement determination unit 14 outputs the tag placement position and tag information to the tag placement list (step S45).
 タグ配置決定部14は、検索領域の中でタグ配置可能な領域が見つからなかった場合(ステップS44においてNO)、検索領域を拡大してオブジェクトに対する検索領域の再設定(拡大された検索領域の設定)を行う(ステップS46)。検索領域の再設定が可能ならば(ステップS47においてYES)、処理はステップS42に戻り、再設定された検索領域において、前景画領域と背景画領域とを区別する。検索領域の拡大サイズは、固定(予め決められたサイズ)でもよいし、オブジェクトの大きさ又は拡大前の検索領域の大きさなどに応じて動的に変更されてもよい。検索領域の再設定が不可能な場合(ステップS47においてNO)は、タグ配置決定部14は、タグ情報を未取得な他のオブジェクトがあるかを判断し、ある場合には(ステップS48においてYES)、処理をステップS40に戻し、ない場合には(ステップS48においてNO)、タグ重畳部15にタグ情報を出力して、タグ配置決定部14は、動作を終了する。 If no tag placement area is found in the search area (NO in step S44), the tag placement determination unit 14 enlarges the search area and resets the search area for the object (setting of the enlarged search area) (Step S46). If the search area can be reset (YES in step S47), the process returns to step S42 to distinguish the foreground image area and the background image area in the reset search area. The enlargement size of the search area may be fixed (a predetermined size), or may be dynamically changed according to the size of the object or the size of the search area before enlargement. If the search area cannot be reset (NO in step S47), the tag placement determining unit 14 determines whether there is another object for which tag information has not been acquired, and if there is (YES in step S48). ), The process returns to step S40, and if not (NO in step S48), tag information is output to the tag superimposing unit 15, and the tag arrangement determining unit 14 ends the operation.
 図13は、実施の形態1におけるタグ重畳部15の動作を示すフローチャートである。図13に示されるように、タグ重畳部15は、映像受信部11から出力されたRAW画像データD2に、タグ配置決定部14から出力されたタグ配置リストを用いてタグ情報を重畳する(ステップS50)。 FIG. 13 is a flowchart showing the operation of the tag superimposing unit 15 in the first embodiment. As shown in FIG. 13, the tag superimposing unit 15 superimposes tag information on the RAW image data D2 output from the video receiving unit 11 using the tag arrangement list output from the tag arrangement determining unit 14 (step S50).
 オブジェクトとタグ情報の位置が離れている場合は、図5(a)に示されるように、互いの関連性を示すために、オブジェクトとタグを線で結んで表示してもよい。タグ重畳部15は、タグ情報を重畳した画像データD6を映像出力部16に出力する。映像出力部16では、タグ重畳部15から得た画像データD7を表示装置30に出力する。 When the positions of the object and the tag information are separated from each other, as shown in FIG. 5A, the object and the tag may be connected and displayed in order to show the mutual relationship. The tag superimposing unit 15 outputs the image data D6 on which the tag information is superimposed to the video output unit 16. The video output unit 16 outputs the image data D7 obtained from the tag superimposing unit 15 to the display device 30.
《1-3》効果
 以上に説明したように、実施の形態1に係る映像処理装置100、映像処理方法、映像処理プログラム、及び映像監視システムによれば、表示装置30に表示されるカメラ映像において、オブジェクト41に関連する付加情報としてのタグ51を背景画領域に配置することができるので、他のオブジェクト及び他のオブジェクトのタグに重ってタグを設定しない。このため、オブジェクトの監視が容易になるという効果がある。
<< 1-3 >> Effect As described above, according to the video processing device 100, the video processing method, the video processing program, and the video monitoring system according to the first embodiment, in the camera video displayed on the display device 30 Since the tag 51 as additional information related to the object 41 can be arranged in the background image area, the tag is not set so as to overlap the other object and the tag of the other object. For this reason, there is an effect that monitoring of the object becomes easy.
《2》実施の形態2
 上記実施の形態1に係る映像処理装置10は、カメラ20から出力された映像データD1に基づくRAW画像データD2から被写体としてオブジェクト41の位置を検出し、オブジェクト41の中心座標を基準位置として検索領域を設定し、検索領域内における背景画領域に、タグ51の配置位置を決定している。
<< 2 >> Embodiment 2
The video processing apparatus 10 according to the first embodiment detects the position of the object 41 as a subject from the RAW image data D2 based on the video data D1 output from the camera 20, and uses the center coordinates of the object 41 as a reference position as a search area. And the arrangement position of the tag 51 is determined in the background image area in the search area.
 しかし、オブジェクトが移動し、このオブジェクトに関連するタグがオブジェクトに追従して移動する場合には、表示装置30の画面31において、複数のオブジェクトが互いに重なったり、複数のタグが互いに近づいたり若しくは重なったりする場合がある。このように、複数のオブジェクトが、互いに接近して又は互いに重なって存在する場合には、画面31を見ている監視者は、関連するオブジェクトとタグとの組が分かり難くなる。 However, when an object moves and a tag related to the object moves following the object, a plurality of objects overlap each other, or a plurality of tags approach each other or overlap on the screen 31 of the display device 30. Sometimes. As described above, when a plurality of objects are close to each other or overlap each other, a monitor watching the screen 31 has difficulty in understanding a set of related objects and tags.
 そこで、実施の形態2に係る映像処理装置は、複数のタグの色を互いに異なる色で表示できる機能を備えている。さらに、実施の形態2に係る映像処理装置は、複数のオブジェクトの各々の上に、関連するタグの色と同じ色のマークを付すことができる機能を備えてもよい。なお、実施の形態2の説明に際しては、図1をも参照する。 Therefore, the video processing apparatus according to Embodiment 2 has a function of displaying the colors of a plurality of tags in different colors. Furthermore, the video processing apparatus according to the second embodiment may include a function capable of attaching a mark having the same color as the associated tag color on each of the plurality of objects. Note that FIG. 1 is also referred to in the description of the second embodiment.
 図14は、実施の形態2に係る映像処理装置のタグ情報テーブルDB部17に格納されているタグ情報テーブル17bの一例を示す図である。図14に示されるように、タグ情報テーブル17bを持つ実施の形態2に係る映像処理装置は、オブジェクトIDごとに表示色に関する表示色情報を有し、タグ配置決定部14が表示色情報に基づいてタグの表示色を指定する点で、実施の形態1に係る映像処理装置10と相違する。 FIG. 14 is a diagram illustrating an example of the tag information table 17b stored in the tag information table DB unit 17 of the video processing apparatus according to the second embodiment. As shown in FIG. 14, the video processing apparatus according to the second embodiment having the tag information table 17b has display color information regarding the display color for each object ID, and the tag placement determination unit 14 is based on the display color information. This is different from the video processing apparatus 10 according to the first embodiment in that the display color of the tag is designated.
 図15(a)から(c)は、実施の形態2に係る映像処理装置の効果を説明するための図である。図15(a)に示されるように、オブジェクト(人物)41gと他のオブジェクト(他の人物)41hとが十分に離れているときには、オブジェクト41gに関連するタグ51gと他のオブジェクト41hに関連するタグ51hとは、互いに十分離れているので、監視者は、タグ51gを参照してオブジェクト41gを容易に把握し、タグ51hを参照してオブジェクト41hを容易に把握することができる。しかし、他のオブジェクト41hが白矢印方向(図15(a)における左方向)に移動して、オブジェクト41gに近づくと、タグ51gとタグ51hが、オブジェクト41gと41hのいずれに関連しているものであるかが、画面上でわかりにくくなる。 15 (a) to 15 (c) are diagrams for explaining the effect of the video processing apparatus according to the second embodiment. As shown in FIG. 15A, when the object (person) 41g and the other object (other person) 41h are sufficiently separated from each other, the tag 51g related to the object 41g and the other object 41h are related. Since the tags 51h are sufficiently separated from each other, the supervisor can easily grasp the object 41g with reference to the tag 51g and can easily grasp the object 41h with reference to the tag 51h. However, when the other object 41h moves in the direction of the white arrow (leftward in FIG. 15A) and approaches the object 41g, the tag 51g and the tag 51h are related to either the object 41g or 41h. It becomes difficult to understand on the screen.
 このとき、図15(b)に比較例として示されるように、タグ51gとタグ51hとが同じ表示色であると仮定すると、監視者は、オブジェクト41gと41hの把握に際し、2つのタグのいずれを参照するべきか容易に判断することができない。 At this time, as shown in FIG. 15B as a comparative example, if it is assumed that the tag 51g and the tag 51h have the same display color, the monitor can grasp either of the two tags when grasping the objects 41g and 41h. It is not easy to determine whether to refer to.
 そこで、実施の形態2に係る映像処理装置においては、図14に示されるように、タグ情報テーブル17bは、オブジェクトIDごとに表示色に関する表示色情報を有し、タグ配置決定部14はタグ51gと51hの表示色を指定する。このため、実施の形態2においては、オブジェクト51gと51hとが接近した場合であっても、タグ51gと51hとを容易に監視することができる。 Therefore, in the video processing device according to the second embodiment, as shown in FIG. 14, the tag information table 17b has display color information related to the display color for each object ID, and the tag arrangement determining unit 14 uses the tag 51g. And the display color of 51h are designated. For this reason, in the second embodiment, even when the objects 51g and 51h approach each other, the tags 51g and 51h can be easily monitored.
 また、図15(c)に示されるように、タグ配置決定部14はオブジェクト41g上にタグ51gと同じ色のマーク52gを付し、オブジェクト41h上にタグ51hと同じ色のマーク52hを付す機能を備えてもよい。この場合には、図15(c)に示されるように、監視者は、オブジェクトとタグとの関連を色で判断できるので、オブジェクトに関連するタグを誤ることはなくなり、オブジェクトの監視を容易に行うことができる。 Further, as shown in FIG. 15C, the tag placement determination unit 14 adds a mark 52g of the same color as the tag 51g on the object 41g, and a mark 52h of the same color as the tag 51h on the object 41h. May be provided. In this case, as shown in FIG. 15C, the monitor can judge the relationship between the object and the tag by color, so that the tag related to the object is not mistaken, and the object can be easily monitored. It can be carried out.
 以上の点を除いて、実施の形態2に係る映像処理装置、映像処理方法、映像処理プログラム、及び映像監視システムは、実施の形態1のものと同じである。 Except for the above points, the video processing apparatus, video processing method, video processing program, and video monitoring system according to the second embodiment are the same as those of the first embodiment.
《3》実施の形態3
 上記実施の形態1に係る映像処理装置10は、カメラ20から出力された映像データD1に基づくRAW画像データD2から被写体としてオブジェクト41の位置を検出し、オブジェクト41の中心座標を基準位置として検索領域を設定し、検索領域内における背景画領域に、タグ51の配置位置を決定している。
<< 3 >> Embodiment 3
The video processing apparatus 10 according to the first embodiment detects the position of the object 41 as a subject from the RAW image data D2 based on the video data D1 output from the camera 20, and uses the center coordinates of the object 41 as a reference position as a search area. And the arrangement position of the tag 51 is determined in the background image area in the search area.
 しかし、オブジェクトが移動し、このオブジェクトに関連するタグがオブジェクトに追従して移動する場合には、表示装置30の画面31において、複数のオブジェクトが互いに重なったり、複数のタグが互いに近づいたり若しくは重なったりする場合がある。この場合に、より監視の重要度(優先順位)が高いオブジェクトのタグが監視の重要度が低いオブジェクト又はそのタグに隠れて、表示されなくなることがある。 However, when an object moves and a tag related to the object moves following the object, a plurality of objects overlap each other, or a plurality of tags approach each other or overlap on the screen 31 of the display device 30. Sometimes. In this case, a tag of an object having higher monitoring importance (priority order) may be hidden by an object having lower monitoring importance or its tag and may not be displayed.
 そこで、実施の形態3に係る映像処理装置は、タグ情報テーブルにおいて、オブジェクトIDごとに重要度を示す優先順位情報を持ち、優先順位が高いオブジェクト(例えば、子供、ベビーカー、車いす、不審者など)のタグは、他のオブジェクト又は他のオブジェクトのタグによって隠れないように手前に表示させる機能を持つ。なお、実施の形態3の説明に際しては、図1をも参照する。 Therefore, the video processing apparatus according to Embodiment 3 has priority information indicating importance for each object ID in the tag information table, and has a high priority (for example, a child, a stroller, a wheelchair, a suspicious person, etc.). The tag has a function of displaying it in front so as not to be hidden by other objects or tags of other objects. In the description of the third embodiment, FIG. 1 is also referred to.
 図16は、実施の形態3に係る映像処理装置のタグ情報テーブルDB部17に格納されているタグ情報テーブル17cの一例を示す図である。図16に示されるように、タグ情報テーブル17cを持つ実施の形態3に係る映像処理装置は、オブジェクトIDごとに優先順位を示す優先順位情報を有し、タグ配置決定部14がタグの優先順位を指定する点で、実施の形態1に係る映像処理装置10と相違する。 FIG. 16 is a diagram illustrating an example of a tag information table 17c stored in the tag information table DB unit 17 of the video processing apparatus according to the third embodiment. As shown in FIG. 16, the video processing apparatus according to the third embodiment having the tag information table 17c has priority information indicating the priority for each object ID, and the tag placement determination unit 14 determines the priority of the tag. Is different from the video processing apparatus 10 according to the first embodiment.
 図17(a)から(c)は、実施の形態3に係る映像処理装置の効果を説明するための図である。図17(a)に示されるように、オブジェクト(大人)41iと優先順位の高い他のオブジェクト(子供)41jとが十分に離れているときには、オブジェクト(大人)41iに関連するタグ51iと他のオブジェクト(子供)41jに関連するタグ51jとは互いに十分離れている。しかし、他のオブジェクト(子供)41jが白矢印方向に移動して、図17(b)の比較例に示されるように、オブジェクト(大人)41iに重なったときに、オブジェクト(子供)41jのタグ51jがオブジェクト(大人)41iの下に隠れると、オブジェクト(子供)41jのタグ51jを、画面上で参照することができなくなる。 FIGS. 17A to 17C are diagrams for explaining the effect of the video processing apparatus according to the third embodiment. As shown in FIG. 17A, when the object (adult) 41i and another object (child) 41j having a high priority are sufficiently separated, the tag 51i related to the object (adult) 41i and other The tag 51j related to the object (child) 41j is sufficiently separated from each other. However, when another object (child) 41j moves in the direction of the white arrow and overlaps with the object (adult) 41i as shown in the comparative example of FIG. 17B, the tag of the object (child) 41j When 51j is hidden under the object (adult) 41i, the tag 51j of the object (child) 41j cannot be referred to on the screen.
 そこで、実施の形態3に係る映像処理装置おいては、図16に示されるように、タグ情報テーブル17cが、オブジェクトIDごとに優先順位情報を有し、タグ配置決定部14はタグ51iとタグ51jの優先順位を指定する。このため、実施の形態3に係る映像処理装置おいては、優先順位が低いオブジェクト(大人)41iと優先順位が高いオブジェクト(子供)41jとが接近した場合であっても、優先順位の高いオブジェクト(子供)41jのタグ51jを容易に確認することができる。例えば、図17(c)に示されるように、タグ配置決定部14は、オブジェクト(子供)41jのタグ51jを付し、オブジェクト(大人)41iの上(手前)の位置に表示するので、図17(b)の比較例の場合に比べ、オブジェクト41jの監視を容易に行うことができる。 Therefore, in the video processing device according to the third embodiment, as shown in FIG. 16, the tag information table 17c has priority information for each object ID, and the tag placement determination unit 14 includes the tag 51i and the tag Specify the priority of 51j. For this reason, in the video processing device according to the third embodiment, even when the object (adult) 41i having a low priority and the object (child) 41j having a high priority approach each other, the object having a high priority The tag 51j of (child) 41j can be easily confirmed. For example, as shown in FIG. 17C, the tag placement determination unit 14 attaches a tag 51j of an object (child) 41j and displays it at a position above (in front of) the object (adult) 41i. The object 41j can be monitored more easily than in the comparative example of 17 (b).
 以上の点を除いて、実施の形態3に係る映像処理装置、映像処理方法、映像処理プログラム、及び映像監視システムは、実施の形態1のものと同じである。 Except for the above points, the video processing apparatus, video processing method, video processing program, and video monitoring system according to the third embodiment are the same as those of the first embodiment.
 また、実施の形態3の機能を、実施の形態2に適用することも可能である。 Also, the function of the third embodiment can be applied to the second embodiment.
《4》変形例
 図18は、実施の形態1から3に係る映像処理装置の変形例の概略構成を示す機能ブロック図である。図18において、図1に示される構成要素と同じ又は対応する構成要素には、図1に示される符号と同じ符号が付される。図18に示される映像処理装置は、オブジェクトを検出するセンサ21を有し、オブジェクト検出部12aは、センサ21の検出結果に基づいてオブジェクトを検出及び認識する点で、上記実施の形態1から3に係る映像処理装置と相違する。
<< 4 >> Modified Example FIG. 18 is a functional block diagram showing a schematic configuration of a modified example of the video processing apparatus according to the first to third embodiments. In FIG. 18, the same reference numerals as those shown in FIG. 1 are given to the same or corresponding elements as those shown in FIG. The video processing apparatus shown in FIG. 18 includes a sensor 21 that detects an object, and the object detection unit 12a detects and recognizes the object based on the detection result of the sensor 21, so that the first to third embodiments described above. This is different from the video processing apparatus according to the above.
 センサ21は、オブジェクトの位置を検出できるものであれば、特に、制限はない。例えば、オブジェクトである人物が、アクティブRFID(radio frequency identifier)を携帯し、センサ21がアクティブRFIDの電波を検出することで、特定人物の位置情報を継続的に追跡する方式が考えられる。また、センサ21のオブジェクト検出と、RAW画像データD2の画像解析に基づく検出との両方に基づいてオブジェクトの検出を行うことも可能である。この場合には、オブジェクトの検出をより正確且つ迅速に行うことができる。 The sensor 21 is not particularly limited as long as it can detect the position of the object. For example, a method in which a person who is an object carries an active RFID (radio frequency identifier) and the sensor 21 detects radio waves of the active RFID to continuously track the position information of a specific person can be considered. It is also possible to detect an object based on both the object detection of the sensor 21 and the detection based on the image analysis of the RAW image data D2. In this case, the object can be detected more accurately and quickly.
 10 映像処理装置、 11 映像受信部、 12,12a オブジェクト検出部、 13 タグ情報管理部、 14 タグ配置決定部、 15 タグ重畳部、 16 映像出力部、 17 タグ情報テーブルDB部、 17a~17c タグ情報テーブル、 20 カメラ、 21 センサ、 30 表示装置、 31 画面、 41,41a~41j オブジェクト(被写体)、 51,51a~51j タグ、 61a~61c 検索領域、 71b 拡大された検索領域、 101 メインプロセッサ、 102 メインメモリ、 103 カメラインタフェース、 104 映像処理プロセッサ、 105 映像処理メモリ、 106 表示インタフェース、 107 入力インタフェース、 108 信号経路。 10 video processing device, 11 video reception unit, 12, 12a object detection unit, 13 tag information management unit, 14 tag placement determination unit, 15 tag superposition unit, 16 video output unit, 17 tag information table DB unit, 17a-17c tag Information table, 20 cameras, 21 sensors, 30 display devices, 31 screens, 41, 41a to 41j objects (subjects), 51, 51a to 51j tags, 61a to 61c search area, 71b expanded search area, 101 main processor, 102 main memory, 103 camera interface, 104 video processor, 105 video processing memory, 106 display interface, 107 input interface, 108 signal path.

Claims (10)

  1.  カメラ撮影によって取得されたカメラ映像内に存在する着目対象としてのオブジェクトに関連する付加情報を、表示装置において前記カメラ映像にタグとして重畳表示させる映像処理装置であって、
     前記カメラ映像において前記オブジェクトが占める領域と前記タグが占める領域とを前景画領域とし、前記カメラ映像における前記前景画領域以外の領域を背景画領域とし、
     前記オブジェクトを検出するオブジェクト検出部と、
     前記付加情報を格納するデータベースを管理するタグ情報管理部と、
     前記オブジェクト検出部によって検出された前記オブジェクトに関連する前記付加情報を前記タグ情報管理部から取得する第1の処理と、前記オブジェクト検出部によって検出された前記オブジェクトを含む検索領域を設定する第2の処理と、前記検索領域内における前記背景画領域に前記第1の処理で取得された前記付加情報としてのタグを表示することができる表示可能領域がある場合に、前記タグの表示位置を前記表示可能領域内に決定する第3の処理とを行うタグ配置決定部と、
     前記カメラ映像に前記タグを重畳表示させる合成映像データを生成するタグ重畳部と
     を有することを特徴とする映像処理装置。
    A video processing device that causes additional information related to an object as a target of interest present in a camera video acquired by camera shooting to be superimposed and displayed as a tag on the camera video on a display device,
    The area occupied by the object and the area occupied by the tag in the camera video is a foreground image area, and an area other than the foreground image area in the camera video is a background image area,
    An object detection unit for detecting the object;
    A tag information management unit for managing a database for storing the additional information;
    A first process for acquiring the additional information related to the object detected by the object detection unit from the tag information management unit; and a second process for setting a search area including the object detected by the object detection unit. And when there is a displayable area in which the tag as the additional information acquired in the first process can be displayed in the background image area in the search area, the display position of the tag is A tag placement determination unit that performs a third process of determining within the displayable area;
    And a tag superimposing unit that generates composite video data for superimposing and displaying the tag on the camera video.
  2.  前記タグ配置決定部は、前記検索領域内における前記背景画領域に前記表示可能領域がない場合に、前記検索領域より大きい拡大された検索領域を設定する第4の処理を行い、前記第4の処理の後に、前記第3の処理を再度実行することを特徴とする請求項1に記載の映像処理装置。 The tag arrangement determination unit performs a fourth process of setting an enlarged search area larger than the search area when the displayable area does not exist in the background image area in the search area, and The video processing apparatus according to claim 1, wherein the third process is executed again after the process.
  3.  前記オブジェクト検出部は、前記カメラ映像の画像解析によって前記オブジェクトを検出することを特徴とする請求項1又は2に記載の映像処理装置。 The video processing apparatus according to claim 1, wherein the object detection unit detects the object by image analysis of the camera video.
  4.  前記オブジェクトを検出して検出信号を出力するセンサをさらに有し、
     前記オブジェクト検出部は、前記検出信号に基づいて前記オブジェクトを検出する
     ことを特徴とする請求項1又は2に記載の映像処理装置。
    A sensor that detects the object and outputs a detection signal;
    The video processing apparatus according to claim 1, wherein the object detection unit detects the object based on the detection signal.
  5.  前記タグ情報管理部は、互いに関連する前記オブジェクトの識別情報と付加情報とを格納するデータベースから取得された前記付加情報を前記タグ配置決定部に提供することを特徴とする請求項1から4のいずれか1項に記載の映像処理装置。 The tag information management unit provides the tag arrangement determination unit with the additional information acquired from a database storing identification information and additional information of the objects related to each other. The video processing device according to any one of claims.
  6.  前記タグ情報管理部は、互いに関連する前記オブジェクトの識別情報と付加情報と表示色情報とを格納する前記データベースから取得された前記付加情報及び前記表示色情報を前記タグ配置決定部に提供し、
     前記タグ配置決定部は、前記表示色情報に基づく色で前記タグを表示させる
     ことを特徴とする請求項1から4のいずれか1項に記載の映像処理装置。
    The tag information management unit provides the tag arrangement determination unit with the additional information and the display color information acquired from the database that stores identification information, additional information, and display color information of the objects related to each other.
    The video processing apparatus according to claim 1, wherein the tag arrangement determination unit displays the tag with a color based on the display color information.
  7.  前記タグ情報管理部は、互いに関連する前記オブジェクトの識別情報と付加情報と優先順位情報とを格納する前記データベースから取得された前記付加情報及び前記優先順位情報を前記タグ配置決定部に提供し、
     前記タグ配置決定部は、複数のタグが重複する場合に、前記複数のタグの内のより高い優先順位に関連するタグを手前に表示させる
     ことを特徴とする請求項1から4のいずれか1項に記載の映像処理装置。
    The tag information management unit provides the tag arrangement determination unit with the additional information and the priority information acquired from the database storing the identification information, additional information, and priority information of the objects related to each other,
    The tag placement determination unit, when a plurality of tags overlap, displays a tag related to a higher priority among the plurality of tags in the foreground. The video processing apparatus according to the item.
  8.  カメラ撮影によって取得されたカメラ映像内に存在する着目対象としてのオブジェクトに関連する付加情報を、表示装置において前記カメラ映像にタグとして重畳表示させる映像処理方法であって、
     前記カメラ映像において前記オブジェクトが占める領域と前記タグが占める領域とを前景画領域とし、前記カメラ映像における前記前景画領域以外の領域を背景画領域とし、
     前記オブジェクトを検出する検出ステップと、
     前記検出ステップによって検出された前記オブジェクトに関連する前記付加情報を、前記付加情報を管理するデータベースから取得する第1の処理と、前記検出ステップによって検出された前記オブジェクトを含む検索領域を設定する第2の処理と、前記検索領域内における前記背景画領域に前記第1の処理で取得された前記付加情報としてのタグを表示することができる表示可能領域がある場合に、前記タグの表示位置を前記表示可能領域内に決定する第3の処理とを行う配置決定ステップと、
     前記カメラ映像に前記タグを重畳表示させる合成映像データを生成する重畳ステップと
     を有することを特徴とする映像処理方法。
    A video processing method for superimposing additional information related to an object as a target of interest present in a camera video acquired by camera shooting as a tag on the camera video on a display device,
    The area occupied by the object and the area occupied by the tag in the camera video is a foreground image area, and an area other than the foreground image area in the camera video is a background image area,
    A detecting step of detecting the object;
    A first process for acquiring the additional information related to the object detected by the detection step from a database managing the additional information; and a first region for setting a search area including the object detected by the detection step. 2 and when there is a displayable area in which the tag as the additional information acquired in the first process can be displayed in the background image area in the search area, the display position of the tag An arrangement determining step for performing a third process for determining within the displayable area;
    And a superimposing step of generating composite video data for superimposing and displaying the tag on the camera video.
  9.  コンピュータに、カメラ撮影によって取得されたカメラ映像内に存在する着目対象としてのオブジェクトに関連する付加情報を、表示装置において前記カメラ映像にタグとして重畳表示させる映像処理プログラムであって、
     前記カメラ映像において前記オブジェクトが占める領域と前記タグが占める領域とを前景画領域とし、前記カメラ映像における前記前景画領域以外の領域を背景画領域とし、
     前記コンピュータに、
     前記オブジェクトを検出する検出ステップと、
     前記検出ステップによって検出された前記オブジェクトに関連する前記付加情報を、前記付加情報を管理するデータベースから取得する第1の処理と、前記検出ステップによって検出された前記オブジェクトを含む検索領域を設定する第2の処理と、前記検索領域内における前記背景画領域に前記第1の処理で取得された前記付加情報としてのタグを表示することができる表示可能領域がある場合に、前記タグの表示位置を前記表示可能領域内に決定する第3の処理とを行う配置決定ステップと、
     前記カメラ映像に前記タグを重畳表示させる合成映像データを生成する重畳ステップと
     を実行させる映像処理プログラム。
    A video processing program for causing a computer to superimpose and display additional information related to an object as a target of interest present in a camera video acquired by camera shooting as a tag on the camera video on a display device,
    The area occupied by the object and the area occupied by the tag in the camera video is a foreground image area, and an area other than the foreground image area in the camera video is a background image area,
    In the computer,
    A detecting step of detecting the object;
    A first process for acquiring the additional information related to the object detected by the detection step from a database managing the additional information; and a first region for setting a search area including the object detected by the detection step. 2 and when there is a displayable area in which the tag as the additional information acquired in the first process can be displayed in the background image area in the search area, the display position of the tag An arrangement determining step for performing a third process for determining within the displayable area;
    And a superimposing step for generating composite video data for superimposing and displaying the tag on the camera video.
  10.  被写体を撮影することによってカメラ映像を生成するカメラと、
     映像データに基づく映像を表示する表示装置と、
     前記カメラ映像内に存在する着目対象としてのオブジェクトに関連する付加情報を、前記表示装置において前記カメラ映像にタグとして重畳表示させる映像処理装置と、を有し、
     前記カメラ映像において前記オブジェクトが占める領域と前記タグが占める領域とを前景画領域とし、前記カメラ映像における前記前景画領域以外の領域を背景画領域とし、
     前記映像処理装置は、
     前記オブジェクトを検出するオブジェクト検出部と、
     前記付加情報を格納するデータベースを管理するタグ情報管理部と、
     前記オブジェクト検出部によって検出された前記オブジェクトに関連する前記付加情報を前記タグ情報管理部から取得する第1の処理と、前記オブジェクト検出部によって検出された前記オブジェクトを含む検索領域を設定する第2の処理と、前記検索領域内における前記背景画領域に前記第1の処理で取得された前記付加情報としてのタグを表示することができる表示可能領域がある場合に、前記タグの表示位置を前記表示可能領域内に決定する第3の処理とを行うタグ配置決定部と、
     前記カメラ映像に前記タグを重畳表示させる合成映像データを生成するタグ重畳部と
     を有することを特徴とする映像監視システム。
    A camera that generates a camera image by shooting a subject;
    A display device for displaying video based on video data;
    A video processing device that superimposes and displays additional information related to an object as a target of interest existing in the camera video as a tag on the camera video in the display device;
    The area occupied by the object and the area occupied by the tag in the camera video is a foreground image area, and an area other than the foreground image area in the camera video is a background image area,
    The video processing device includes:
    An object detection unit for detecting the object;
    A tag information management unit for managing a database for storing the additional information;
    A first process for acquiring the additional information related to the object detected by the object detection unit from the tag information management unit; and a second process for setting a search area including the object detected by the object detection unit. And when there is a displayable area in which the tag as the additional information acquired in the first process can be displayed in the background image area in the search area, the display position of the tag is A tag placement determination unit that performs a third process of determining within the displayable area;
    And a tag superimposing unit that generates composite video data for superimposing and displaying the tag on the camera video.
PCT/JP2016/088620 2016-12-26 2016-12-26 Image processing device, image processing method, image processing program, and image monitoring system WO2018122895A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017528863A JP6289762B1 (en) 2016-12-26 2016-12-26 Video processing apparatus, video processing method, video processing program, and video monitoring system
PCT/JP2016/088620 WO2018122895A1 (en) 2016-12-26 2016-12-26 Image processing device, image processing method, image processing program, and image monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/088620 WO2018122895A1 (en) 2016-12-26 2016-12-26 Image processing device, image processing method, image processing program, and image monitoring system

Publications (1)

Publication Number Publication Date
WO2018122895A1 true WO2018122895A1 (en) 2018-07-05

Family

ID=61558380

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/088620 WO2018122895A1 (en) 2016-12-26 2016-12-26 Image processing device, image processing method, image processing program, and image monitoring system

Country Status (2)

Country Link
JP (1) JP6289762B1 (en)
WO (1) WO2018122895A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109819217A (en) * 2019-02-14 2019-05-28 上海图丽信息技术有限公司 A kind of monitoring is mobile to have access to system
JP2020021618A (en) * 2018-07-31 2020-02-06 積水化学工業株式会社 Public facility, server device, server program, and learnt model
CN111131892A (en) * 2019-12-31 2020-05-08 安博思华智能科技有限责任公司 System and method for controlling live broadcast background
JP2021072600A (en) * 2019-11-01 2021-05-06 キヤノン株式会社 Imaging apparatus, information processing device, control method thereof, imaging apparatus system, and program
JP2022541897A (en) * 2019-07-16 2022-09-28 ドックボット, インコーポレイテッド Real-time deployment of machine learning systems

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102149455B1 (en) * 2018-11-26 2020-08-28 국방과학연구소 helmet apparatus and operating method for the same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012027606A (en) * 2010-07-21 2012-02-09 Brilliantservice Co Ltd Air tag display system
WO2012101778A1 (en) * 2011-01-26 2012-08-02 パイオニア株式会社 Display device, control method, program, and recording medium
JP2013080394A (en) * 2011-10-04 2013-05-02 Canon Inc Display control device, control method of display control device, and program
JP2015089021A (en) * 2013-10-31 2015-05-07 キヤノンマーケティングジャパン株式会社 Imaging device, imaging control method, and program
JP2015091055A (en) * 2013-11-06 2015-05-11 キヤノン株式会社 Imaging device and image processing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012027606A (en) * 2010-07-21 2012-02-09 Brilliantservice Co Ltd Air tag display system
WO2012101778A1 (en) * 2011-01-26 2012-08-02 パイオニア株式会社 Display device, control method, program, and recording medium
JP2013080394A (en) * 2011-10-04 2013-05-02 Canon Inc Display control device, control method of display control device, and program
JP2015089021A (en) * 2013-10-31 2015-05-07 キヤノンマーケティングジャパン株式会社 Imaging device, imaging control method, and program
JP2015091055A (en) * 2013-11-06 2015-05-11 キヤノン株式会社 Imaging device and image processing device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020021618A (en) * 2018-07-31 2020-02-06 積水化学工業株式会社 Public facility, server device, server program, and learnt model
CN109819217A (en) * 2019-02-14 2019-05-28 上海图丽信息技术有限公司 A kind of monitoring is mobile to have access to system
JP2022541897A (en) * 2019-07-16 2022-09-28 ドックボット, インコーポレイテッド Real-time deployment of machine learning systems
JP7420916B2 (en) 2019-07-16 2024-01-23 サティスファイ ヘルス インコーポレイテッド Real-time deployment of machine learning systems
JP2021072600A (en) * 2019-11-01 2021-05-06 キヤノン株式会社 Imaging apparatus, information processing device, control method thereof, imaging apparatus system, and program
JP7453772B2 (en) 2019-11-01 2024-03-21 キヤノン株式会社 Information processing device and its control method, imaging device system, program
CN111131892A (en) * 2019-12-31 2020-05-08 安博思华智能科技有限责任公司 System and method for controlling live broadcast background
CN111131892B (en) * 2019-12-31 2022-02-22 安博思华智能科技有限责任公司 System and method for controlling live broadcast background

Also Published As

Publication number Publication date
JP6289762B1 (en) 2018-03-07
JPWO2018122895A1 (en) 2018-12-27

Similar Documents

Publication Publication Date Title
JP6289762B1 (en) Video processing apparatus, video processing method, video processing program, and video monitoring system
JP6399356B2 (en) Tracking support device, tracking support system, and tracking support method
US20150356840A1 (en) Information processing apparatus, information processing method, program, and information processing system
JP6622650B2 (en) Information processing apparatus, control method therefor, and imaging system
US20110050901A1 (en) Transmission apparatus and processing apparatus
EP3070938A1 (en) Image processing apparatus and method
US9514225B2 (en) Video recording apparatus supporting smart search and smart search method performed using video recording apparatus
US8165348B2 (en) Detecting objects crossing a virtual boundary line
JP6593742B2 (en) In-facility person search support apparatus, in-facility person search support system, and in-facility person search support method
CN106031154B (en) Handle the method for image and the electronic device for it
US20180181815A1 (en) Person counting area setting method, person counting area setting program, moving line analysis system, camera device, and person counting program
WO2013102026A2 (en) Method and system for video composition
US20200404222A1 (en) Tracking assistance device, tracking assistance system and tracking assistance method
US20230093631A1 (en) Video search device and network surveillance camera system including same
JP2018160219A (en) Moving route prediction device and method for predicting moving route
US10999556B2 (en) System and method of video capture and search optimization
RU2012119843A (en) METHOD FOR DISPLAYING VIDEO DATA ON A MOBILE DEVICE
JP2015106862A (en) Content information acquisition device and program, and content distribution device
WO2014030405A1 (en) Display device, display method, television receiver, and display control device
US20180211445A1 (en) Information processing device, terminal, and remote communication system
CN113228626A (en) Video monitoring system and method
JP6724919B2 (en) Information processing apparatus, information processing method, and program
JP2019050553A (en) Image processing apparatus, image providing apparatus, control method of the same, and program
JP2018005091A (en) Display control program, display control method and display controller
WO2022019324A1 (en) Failure identification and handling method, and system

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2017528863

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16925344

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16925344

Country of ref document: EP

Kind code of ref document: A1