JP2020136954A - Processing device, processing program, and processing method - Google Patents

Processing device, processing program, and processing method Download PDF

Info

Publication number
JP2020136954A
JP2020136954A JP2019029320A JP2019029320A JP2020136954A JP 2020136954 A JP2020136954 A JP 2020136954A JP 2019029320 A JP2019029320 A JP 2019029320A JP 2019029320 A JP2019029320 A JP 2019029320A JP 2020136954 A JP2020136954 A JP 2020136954A
Authority
JP
Japan
Prior art keywords
information
video
line
sight
types
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019029320A
Other languages
Japanese (ja)
Inventor
順一 吉識
Junichi Yoshiki
順一 吉識
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2019029320A priority Critical patent/JP2020136954A/en
Publication of JP2020136954A publication Critical patent/JP2020136954A/en
Pending legal-status Critical Current

Links

Abstract

To improve a video image confirmation operability of a photographing object by automatically reproducing each reproduction image by setting an optimal synchronous difference when a plural kind of video images photographed at a plurality of locations in accordance with the movement of the photographing object is simultaneously reproduced on a view of a different direction.SOLUTION: A monitoring processing part 32 performs a monitoring while reproducing a moving image on the basis of a pre-stored individual reproduction time, and therefore, a moving image reproduction time can be set as a sufficient requirement time, and can improve operability. As a comparison example, when performing the monitoring for a fixed time (e.g., 10 minutes of a default value), a stand-by time becomes long when a monitoring person monitors an article 14 with a plurality of moving images, and the operability is reduced. On the other hand, since an appropriate reproduction time tk is determined each monitoring person, the stand-by time can be reduced, and the monitoring of the article 14 can be performed with the sufficient requirement time.SELECTED DRAWING: Figure 5

Description

本発明は、処理装置、処理プログラム、及び処理方法に関する。 The present invention relates to a processing apparatus, a processing program, and a processing method.

従来、工場内の生産ラインや物流センターの配送仕分けシステム等の特定領域に映像監視を適用する場合、複数の映像を同時表示する監視手段として、特許文献1には、複数の監視箇所内を流れていく1つの対象物の、各カメラ通過時点の様子を再生し、目視確認することが記載されている。特許文献1によれば、複数の再生すべき時点を検出することが可能となる。 Conventionally, when video surveillance is applied to a specific area such as a production line in a factory or a delivery sorting system in a distribution center, Patent Document 1 describes a flow in a plurality of monitoring locations as a monitoring means for simultaneously displaying a plurality of videos. It is described that the state of one object to be moved at the time of passing through each camera is reproduced and visually confirmed. According to Patent Document 1, it is possible to detect a plurality of time points to be reproduced.

特開2018−19373号公報Japanese Unexamined Patent Publication No. 2018-19373

しかしながら、特許文献1に記載の技術では、同時再生する複数種の映像の選択や、映像内での再生時点の指定等は、オペレータの手動操作に委ねられているため、映像確認作業が煩雑となっている。 However, in the technique described in Patent Document 1, since the selection of a plurality of types of images to be simultaneously reproduced and the designation of the reproduction time in the image are left to the manual operation of the operator, the image confirmation work is complicated. It has become.

本発明は、撮影対象物の移動に伴い複数個所で撮影した複数種の映像を異なる方向の視線上で同時再生する際に、各再生画像を最適な同期差分を設定して自動再生することで、撮影対象物の映像確認作業性を向上することができる処理装置を得ることを目的とする。 According to the present invention, when a plurality of types of images taken at a plurality of locations are simultaneously reproduced on a line of sight in different directions due to the movement of an object to be photographed, each reproduced image is automatically reproduced by setting an optimum synchronization difference. It is an object of the present invention to obtain a processing device capable of improving the image confirmation workability of an object to be photographed.

本発明の処理装置は、所定の撮影領域を複数の撮影装置で撮影した複数種の映像情報に基づき、表示装置に同時に再生表示された映像を監視者が視線を移動させながら目視により監視する処理装置であって、前記複数種の撮影情報の各々に対応付けられたタイミング情報に基づいて、前記表示装置への再生表示開始タイミングをずらして、前記複数種の映像情報に基づく各映像を表示制御する表示制御部を有している。 The processing device of the present invention is a process in which a viewer visually monitors an image simultaneously reproduced and displayed on a display device based on a plurality of types of image information captured by a plurality of photographing devices in a predetermined photographing area while moving the line of sight. It is a device, and based on the timing information associated with each of the plurality of types of shooting information, the playback display start timing on the display device is shifted, and each image based on the plurality of types of image information is displayed and controlled. It has a display control unit.

本発明の処理プログラムは、所定の撮影領域を複数の撮影装置で撮影した複数種の映像情報に基づき、表示装置に同時に再生表示された映像を監視者が視線を移動させながら目視により監視するコンピュータを、前記複数種の撮影情報の各々に対応付けられたタイミング情報に基づいて、前記表示装置への再生表示開始タイミングをずらして、前記複数種の映像情報に基づく各映像を表示制御する表示制御部、として機能させる。 The processing program of the present invention is a computer that visually monitors an image simultaneously reproduced and displayed on a display device by a viewer while moving the line of sight, based on a plurality of types of image information obtained by photographing a predetermined imaging area with a plurality of imaging devices. , A display control for displaying and controlling each image based on the plurality of types of image information by shifting the playback display start timing on the display device based on the timing information associated with each of the plurality of types of shooting information. Make it function as a department.

本発明の処理方法は、所定の撮影領域を複数の撮影装置で撮影した複数種の映像情報に基づき、表示装置に同時に再生表示された映像を監視者が視線を移動させながら目視により監視する処理方法であって、前記複数種の撮影情報の各々に対応付けられたタイミング情報に基づいて、前記表示装置への再生表示開始タイミングをずらして、前記複数種の映像情報に基づく各映像を表示制御する。 The processing method of the present invention is a process in which a viewer visually monitors an image simultaneously reproduced and displayed on a display device based on a plurality of types of image information captured by a plurality of imaging devices in a predetermined imaging area while moving the line of sight. It is a method, and based on the timing information associated with each of the plurality of types of shooting information, the playback display start timing on the display device is shifted, and each image based on the plurality of types of image information is displayed and controlled. To do.

本発明によれば、撮影対象物の移動に伴い複数個所で撮影した複数種の映像を異なる方向の視線上で同時再生する際に、各再生映像を最適な同期差分を設定して自動再生することで、撮影対象物の映像確認作業性を向上することができるという効果が得られる。 According to the present invention, when a plurality of types of images shot at a plurality of locations are simultaneously reproduced on a line of sight in different directions due to the movement of an object to be photographed, each reproduced image is automatically reproduced by setting an optimum synchronization difference. As a result, the effect of improving the workability of checking the image of the object to be photographed can be obtained.

本実施の形態に係る物品搬送ラインを示す斜視図である。It is a perspective view which shows the article transport line which concerns on this embodiment. (A)は本実施の形態に係る監視カメラを用いた監視システムの概略図、(B)は大規模記憶装置に格納された個人別テーブルの概念図である。(A) is a schematic diagram of a surveillance system using a surveillance camera according to the present embodiment, and (B) is a conceptual diagram of an individual table stored in a large-scale storage device. 再生時間決定処理部を主体とした、監視システムの機能ブロック図である。It is a functional block diagram of a monitoring system mainly composed of a reproduction time determination processing unit. 再生時間決定処理部において、4台の監視カメラを、モニタを4分割して同時に再生する場合を例示した、モニタの動画再生遷移図である。It is a moving image reproduction transition diagram of the monitor which illustrated the case where four surveillance cameras are divided into four and reproduced at the same time in the reproduction time determination processing unit. 監視処理部を主体とした、監視システムの機能ブロック図である。It is a functional block diagram of a monitoring system mainly composed of a monitoring processing unit. 監視処理部において、4台の監視カメラを、モニタを4分割して同時に再生する場合を例示した、モニタの動画再生遷移図である。It is a moving image reproduction transition diagram of the monitor which illustrated the case where four surveillance cameras are divided into four and reproduced at the same time in the monitoring processing unit. 本実施の形態に係るメインコントロール部で実行される監視システムメインルーチンを示す制御フローチャートである。It is a control flowchart which shows the monitoring system main routine executed in the main control part which concerns on this embodiment. メインコントロール部からの指示で実行される再生時間決定処理部における再生時間決定処理ルーチンを示す制御フローチャートである。It is a control flowchart which shows the reproduction time determination processing routine in the reproduction time determination processing unit which is executed by the instruction from the main control unit. メインコントロール部からの指示で実行される監視処理部における監視処理ルーチンを示す制御フローチャートである。It is a control flowchart which shows the monitoring processing routine in the monitoring processing part which is executed by the instruction from the main control part.

図1は、本実施の形態に係る物品搬送ライン10を示す斜視図である。 FIG. 1 is a perspective view showing an article transport line 10 according to the present embodiment.

物品搬送ライン10は、工場内の生産ラインや物流センターの配送仕分けシステム等に適用可能である。 The goods transport line 10 can be applied to a production line in a factory, a delivery sorting system in a distribution center, and the like.

本実施の形態に係る物品搬送ライン10では、直線的は主幹路12を備えている。主幹路12は、ベルトコンベア12Aが敷設されており、図示しない駆動源により、無端状にループしながら移動するようになっている。 The article transport line 10 according to the present embodiment includes the main trunk line 12 in a straight line. A belt conveyor 12A is laid on the main trunk road 12, and a drive source (not shown) is used to move the main trunk road 12 while looping in an endless manner.

このため、主幹路12の上流側に設けられた、例えば、物品ストッカ(図示省略)から図1の矢印Aに示すように、物品14が搬送されてくると、物品14は、ベルトコンベア12Aの移動に伴って、図1の矢印Bに示すように、主幹路12の下流へ送り出されるようになっている。 Therefore, when the article 14 is conveyed from, for example, an article stocker (not shown) provided on the upstream side of the main trunk road 12, as shown by an arrow A in FIG. 1, the article 14 is transferred to the belt conveyor 12A. As it moves, it is sent downstream of the main trunk road 12 as shown by the arrow B in FIG.

本実施の形態では、主幹路12の、ベルトコンベア12Aは、一定の速度で移動しており、搬送される複数の物品14は、一定の間隔、かつ、一定の速度で移動するようになっている。 In the present embodiment, the belt conveyor 12A of the main trunk road 12 moves at a constant speed, and the plurality of articles 14 to be transported move at a constant interval and at a constant speed. There is.

なお、物品14の搬送間隔には、許容誤差±αが設定されており、結果として、物品14の搬送間隔は、許容範囲±α内で変動する場合を含むものとする。 A tolerance ± α is set for the transport interval of the article 14, and as a result, the transport interval of the article 14 includes a case where the tolerance varies within the tolerance ± α.

また、搬送速度においても、所定の許容誤差±βを持たせてもよい。 Further, the transport speed may also have a predetermined tolerance ± β.

図1に示される如く、主幹路12からは複数(図1では、2個)の枝路16A、16Bが設けられている。 As shown in FIG. 1, a plurality of (two in FIG. 1) branch roads 16A and 16B are provided from the main trunk road 12.

主幹路12と、枝路16A、16Bの境界には、図示しない切替ガイドユニットが取り付けられており、物品14の種類に応じて、主幹路12から枝路16A、16Bへ方向転換させることができるようになっている。このような枝路16A、16Bは、物流センターの配送仕分けに適用可能であり、一例として、配送地域毎に主幹路12の終端、並びに、枝路16A、16Bの終端に待機する運搬トラック等(図示省略)へ仕分けることが可能である。 A switching guide unit (not shown) is attached to the boundary between the main trunk road 12 and the branch roads 16A and 16B, and the direction can be changed from the main trunk road 12 to the branch roads 16A and 16B according to the type of the article 14. It has become like. Such branch roads 16A and 16B can be applied to the delivery sorting of the distribution center, and as an example, the terminal of the main trunk road 12 and the transport truck waiting at the end of the branch roads 16A and 16B for each delivery area ( It is possible to sort into (not shown).

ここで、本実施の形態の物品搬送ライン10では、主幹路12及び枝路16A、16Bの上方に、監視カメラ18が取り付けられている。監視カメラ18の数Lは、特に限定されるものではないが、図1では、主幹路12上に5台の監視カメラ18が配置され、枝路16A上に2台の監視カメラ18が配置され、枝路16B上に1台の監視カメラ18が配置されている。 Here, in the article transport line 10 of the present embodiment, the surveillance camera 18 is attached above the main trunk road 12 and the branch roads 16A and 16B. The number L of the surveillance cameras 18 is not particularly limited, but in FIG. 1, five surveillance cameras 18 are arranged on the main road 12 and two surveillance cameras 18 are arranged on the branch road 16A. , One surveillance camera 18 is arranged on the branch road 16B.

ここで、主幹路12上に配置された4台の監視カメラ18(図1で実線で図示)に着目して、配置状態を説明する。 Here, the arrangement state will be described by paying attention to four surveillance cameras 18 (shown by solid lines in FIG. 1) arranged on the main trunk road 12.

4台の監視カメラ18は、一定間隔で配置されている。この監視カメラ18の配置間隔は、物品14の搬送間隔に依存するものではなく、独立して設定すればよい。また、一定間隔で配置されていなくてもよい。 The four surveillance cameras 18 are arranged at regular intervals. The arrangement interval of the surveillance cameras 18 does not depend on the transportation interval of the articles 14, and may be set independently. Further, it does not have to be arranged at regular intervals.

各監視カメラ18では、主幹路12上の移動する物品14を上から撮影することになり、その映像は、平面画像となる(図2(B)参照)。なお、監視カメラ18の一部又は全部を傾斜させ、平面画像ではなく、奥行きのある画像(所謂、鳥瞰図的な画像)を撮影するようにしてもよい。 Each surveillance camera 18 will take a picture of the moving article 14 on the main road 12 from above, and the image will be a flat image (see FIG. 2B). A part or all of the surveillance camera 18 may be tilted to take a deep image (so-called bird's-eye view image) instead of a flat image.

図2(A)には、本実施の形態に係る監視カメラ18を用いた監視システム20が示されている。 FIG. 2A shows a surveillance system 20 using the surveillance camera 18 according to the present embodiment.

監視システム20は、メインコントロール部22を備えている。メインコントロール部22は、CPU22A、RAM22B、ROM22C、入出力部(I/O)22D、及びこれらを接続するデータバスはコントロールバス等のバス22Eを備えている。監視システム20は、CPU22Aによる処理プログラムによって、後述される映像処理部28、再生時間決定処理部30、及び監視処理部32を一括管理する。 The monitoring system 20 includes a main control unit 22. The main control unit 22 includes a CPU 22A, a RAM 22B, a ROM 22C, an input / output unit (I / O) 22D, and a data bus connecting these includes a bus 22E such as a control bus. The monitoring system 20 collectively manages the video processing unit 28, the playback time determination processing unit 30, and the monitoring processing unit 32, which will be described later, by a processing program by the CPU 22A.

I/O22Dには、ユーザーインターフェイス(キーボード、マウス、ディスプレイ等)24及び映像処理部28が接続されている。 A user interface (keyboard, mouse, display, etc.) 24 and a video processing unit 28 are connected to the I / O 22D.

また、I/O22Dには、再生時間決定処理部30及び監視処理部32が接続されている。この再生時間決定処理部30及び監視処理部32の詳細については後述するが、ユーザーインターフェイス24を介して処理の実行指示を受けることで、それぞれの処理が実行されるようになっている。また、ユーザーインターフェイス24では、各部の処理の進捗状況等を管理するようになっている。 Further, the reproduction time determination processing unit 30 and the monitoring processing unit 32 are connected to the I / O 22D. The details of the reproduction time determination processing unit 30 and the monitoring processing unit 32 will be described later, but each processing is executed by receiving a processing execution instruction via the user interface 24. In addition, the user interface 24 manages the progress of processing of each part.

さらに、I/O22Dには、大規模記憶装置26が接続されており、監視システム20で実行する処理に必要な情報を格納することが可能となっている。その主たる情報として、大規模記憶装置26には、再生時間決定処理部30で監視者毎に設定される再生時間テーブル(個人別テーブル26Tが記憶されるようになっている(図2(B)参照)。個人別テーブル26Tについては再生時間決定処理部30の詳細説明と共に後述する。 Further, a large-scale storage device 26 is connected to the I / O 22D, and it is possible to store information necessary for processing executed by the monitoring system 20. As the main information thereof, the large-scale storage device 26 stores a reproduction time table (individual table 26T) set for each observer by the reproduction time determination processing unit 30 (FIG. 2B). (See). The individual table 26T will be described later together with a detailed description of the reproduction time determination processing unit 30.

(映像処理部28) (Video processing unit 28)

図3及び図5に示される如く、映像処理部28は、複数台の監視カメラ18(監視カメラ群18G)を備え、各監視カメラ18で撮影した映像(主として動画)は映像情報蓄積部34に蓄積されるようになっている。 As shown in FIGS. 3 and 5, the video processing unit 28 includes a plurality of surveillance cameras 18 (surveillance camera group 18G), and the video (mainly moving image) captured by each surveillance camera 18 is stored in the video information storage unit 34. It is supposed to be accumulated.

また、映像処理部28は、モニタ36を備えている。モニタ36には、再生処理部38が接続されており、再生処理部38では、例えば、映像情報を識別する識別情報に基づいて、映像情報蓄積部34に蓄積された映像情報を取り込み、モニタ36に再生表示させる。 Further, the video processing unit 28 includes a monitor 36. A playback processing unit 38 is connected to the monitor 36, and the playback processing unit 38 takes in the video information stored in the video information storage unit 34 based on, for example, the identification information that identifies the video information, and the monitor 36 To play and display.

なお、映像処理部28のモニタ36には、詳細は後述するが、再生時間決定処理部30で適用されるアイトラッキングカメラ40が取り付けられている。 Although details will be described later, the monitor 36 of the video processing unit 28 is equipped with an eye tracking camera 40 applied by the reproduction time determination processing unit 30.

ここで、モニタ36は、画面が分割され、複数台の監視カメラ18の映像が同時に表示(再生)されるようになっている(図4及び図6参照)。 Here, the screen of the monitor 36 is divided so that the images of the plurality of surveillance cameras 18 are simultaneously displayed (reproduced) (see FIGS. 4 and 6).

画面の分割数は、設置された監視カメラ18の台数分としてもよいが、モニタ36のサイズによっては、全台の監視カメラ18を分割して表示するようにしてもよい。 The number of divided screens may be the number of surveillance cameras 18 installed, but depending on the size of the monitor 36, all the surveillance cameras 18 may be divided and displayed.

本実施の形態では、図4及び図6に示される如く、4台の監視カメラ18の映像を同時に表示する構成となっている。すなわち、図1において実線で図示した主幹路12上の4台の監視カメラ18で撮影した映像が、モニタ36の画面が4分割されて同時に表示されることになる。 In the present embodiment, as shown in FIGS. 4 and 6, the images of the four surveillance cameras 18 are displayed at the same time. That is, the images taken by the four surveillance cameras 18 on the main trunk road 12 shown by the solid line in FIG. 1 are divided into four screens of the monitor 36 and displayed at the same time.

例えば、その他の監視カメラ18(図1で点線で図示)の映像は、モニタ36上で時期をずらして表示され、かつ当該時分割表示を繰り返すことで、全台の監視カメラ18の映像を一定時間内で監視することができる。 For example, the images of the other surveillance cameras 18 (shown by the dotted line in FIG. 1) are displayed on the monitor 36 at different times, and by repeating the time-division display, the images of all the surveillance cameras 18 are constant. It can be monitored in time.

本実施の形態では、物品14の過去の搬送状態を確認する場合、当該過去の時点で撮影(録画)した映像を再生する監視処理部32を備えている。 In the present embodiment, when confirming the past transportation state of the article 14, the monitoring processing unit 32 for reproducing the image captured (recorded) at the past time point is provided.

監視処理部32では、当該物品14の状況(例えば、不具合対象の物品14(単一)の移動状態)を、搬送経路に沿った複数の監視カメラ18で撮影した映像が再生される。 The monitoring processing unit 32 reproduces images of the status of the article 14 (for example, the moving state of the article 14 (single) subject to failure) taken by a plurality of surveillance cameras 18 along the transport path.

例えば、図1に実線で示す主幹路12上の4台の監視カメラ18において、ベルトコンベア12A上の移動する同一の物品14を撮影した映像を表示する場合がある。 For example, the four surveillance cameras 18 on the main road 12 shown by the solid line in FIG. 1 may display an image of the same moving article 14 on the belt conveyor 12A.

この場合、1つの映像を確認して、次の映像を見るまでのインタバル(監視者の視線又は顔の移動時間)は、監視者によってまちまちであり、どのようなタイミングで4つの映像を表示するか(再生時間を決定するか)を特定する必要がある。 In this case, the interval (time of the observer's line of sight or face movement) from confirming one image to seeing the next image varies depending on the observer, and four images are displayed at what timing. It is necessary to specify whether (whether to determine the playback time).

そこで、本実施の形態の監視システム20として、アイトラッキングカメラ40(図3参照)によって、監視者の視線又は顔の動きを判断し、再生時間を決定する再生時間決定処理部30と、当該再生時間決定処理部30決定した再生時間に基づいて、特定の物品14の状態を監視する監視処理部32とを設けた。 Therefore, as the monitoring system 20 of the present embodiment, the playback time determination processing unit 30 that determines the playback time by determining the movement of the observer's line of sight or face by the eye tracking camera 40 (see FIG. 3), and the playback Time determination processing unit 30 A monitoring processing unit 32 for monitoring the state of the specific article 14 is provided based on the determined reproduction time.

(再生時間決定処理部30) (Reproduction time determination processing unit 30)

図3には、再生時間決定処理部30を主体とした、監視システム20の機能ブロック図が示されている。なお、図3に示す各ブロックはハード構成を限定するものではなく、一部又は全部が処理プログラムで動作するようにしてもよい。 FIG. 3 shows a functional block diagram of the monitoring system 20 mainly composed of the reproduction time determination processing unit 30. The hardware configuration of each block shown in FIG. 3 is not limited, and a part or all of the blocks may be operated by a processing program.

メインコントロール部22から、再生時間決定処理部30の実行管理部42に対して処理の実行指示があると、実行管理部42では、同期差分デフォルト値読出部44及び視線抽出部46に監視指示を通知する。 When the main control unit 22 gives a process execution instruction to the execution management unit 42 of the reproduction time determination processing unit 30, the execution management unit 42 issues a monitoring instruction to the synchronization difference default value reading unit 44 and the line-of-sight extraction unit 46. Notice.

同期差分デフォルト値読出部44は、同期差分デフォルト値記憶部48に接続されており、実行管理部42からの開始指示に応じて、同期差分デフォルト値記憶部48に記憶された同期差分デフォルト値を読み出し、映像処理部28の再生処理部38へ送出する。 The synchronous difference default value reading unit 44 is connected to the synchronous difference default value storage unit 48, and receives a start instruction from the execution management unit 42 to store the synchronous difference default value stored in the synchronous difference default value storage unit 48. It is read out and sent to the reproduction processing unit 38 of the video processing unit 28.

再生処理部38は、複数台の監視カメラ18(監視カメラ群18G)で撮影した映像情報を蓄積した映像情報の中から、特定の物品14(図1参照)の映像を読み出す。本実施の形態では、主幹路12に配置された4台の監視カメラ18で撮影した、特定の物品14の映像情報を読み出し、同期差分デフォルト値(ここでは、10秒)に基づいて、モニタ36に表示する。 The reproduction processing unit 38 reads out the image of the specific article 14 (see FIG. 1) from the image information accumulated by the image information taken by the plurality of surveillance cameras 18 (surveillance camera group 18G). In the present embodiment, the video information of the specific article 14 taken by the four surveillance cameras 18 arranged on the main trunk road 12 is read out, and the monitor 36 is based on the synchronization difference default value (here, 10 seconds). Display on.

このとき、モニタ36上の各分割表示領域の映像は頭出し処理が施された状態で一時停止状態とされ、図4に示される如く、分割表示領域1(左上)が基準となり、分割表示領域1の動画の再生開始後10秒後に分割表示領域2(右上)の動画が再生され、分割表示領域2の再生開始後10秒後に分割表示領域3(左下)の動画が再生され、分割表示領域3の再生開始後10秒後に分割表示領域4(右下)の動画が再生されるようになっている。 At this time, the image of each divided display area on the monitor 36 is put into a paused state with the cueing process applied, and as shown in FIG. 4, the divided display area 1 (upper left) is used as a reference, and the divided display area is used as a reference. The video in the split display area 2 (upper right) is played 10 seconds after the start of playback of the video 1 and the video in the split display area 3 (lower left) is played 10 seconds after the start of playback in the split display area 2. The moving image in the divided display area 4 (lower right) is played 10 seconds after the start of playback of 3.

一方、視線抽出部46では、実行管理部42から開始指示を受けるとアイトラッキングカメラ40から監視者の視線(又は顔)の動きの情報を取得して、視線情報を認識する。本実施の形態では、アイトラッキングカメラ40は、光軸が監視者と対峙する位置(例えば、モニタ36近傍)に配置したが、再生時間決定処理を実行するに際し、監視者にアイトラッキングメガネ等を装着させるようにしてもよい。 On the other hand, when the line-of-sight extraction unit 46 receives a start instruction from the execution management unit 42, it acquires information on the movement of the observer's line of sight (or face) from the eye tracking camera 40 and recognizes the line-of-sight information. In the present embodiment, the eye tracking camera 40 is arranged at a position where the optical axis faces the monitor (for example, in the vicinity of the monitor 36), but when executing the playback time determination process, the eye tracking glasses or the like are worn on the monitor. It may be attached.

視線抽出部46で抽出した視線情報は、再生時間決定部50へ送出される。再生時間決定部50では、視線情報に基づいて、各分割表示領域間の視線の移動時間を特定し、1つの分割表示領域1〜4を注視する時間tk(ここでは、4台の監視カメラ18を対象としているので、t1〜t4)を決定し、第1カウンタ52及び動画再生時間テーブル生成部54へ通知する。 The line-of-sight information extracted by the line-of-sight extraction unit 46 is sent to the reproduction time determination unit 50. The reproduction time determination unit 50 specifies the movement time of the line of sight between the divided display areas based on the line-of-sight information, and the time tk for gazing at one divided display area 1 to 4 (here, four surveillance cameras 18). T1 to t4) are determined, and the first counter 52 and the moving image reproduction time table generation unit 54 are notified.

第1カウンタ52は、再生処理部38に接続されており、視線情報を取得をN1回(例えば、10〜50回程度)繰り返すことを指示する。この繰り返しによって、視線情報の精度を上げることができる。 The first counter 52 is connected to the reproduction processing unit 38, and instructs to repeat the acquisition of the line-of-sight information N1 times (for example, about 10 to 50 times). By repeating this, the accuracy of the line-of-sight information can be improved.

一方、動画再生時間テーブル生成部54では、再生時間決定部50から受けた、N1回分の再生時間を一時的に累積記憶し、第1カウンタ52からの終了通知に基づいて、動画再生時間テーブルを生成する。例えば、動画再生時間テーブルとしては、累積記憶したN1回分の再生時間の平均値や中央値等が適用可能である。 On the other hand, the moving image reproduction time table generation unit 54 temporarily cumulatively stores the reproduction time for N1 times received from the reproduction time determination unit 50, and based on the end notification from the first counter 52, the moving image reproduction time table is stored. Generate. For example, as the moving image playback time table, the average value, the median value, or the like of the cumulatively stored N1 playback time can be applied.

動画再生時間テーブル生成部54で生成した動画再生時間テーブルは、メインコントロール部22の大規模記憶装置26へ送出され、視線情報の対象者(監視者)毎の動画再生時間テーブル(個人別テーブル26T)として記憶されるようになっている。 The video playback time table generated by the video playback time table generation unit 54 is sent to the large-scale storage device 26 of the main control unit 22, and the video playback time table (individual table 26T) for each target person (monitorer) of the line-of-sight information. ) Is memorized.

大規模記憶装置26に記憶された個人別テーブル26Tは、監視処理部32での監視処理の際に、監視処理部32へ転送され、利用される。 The individual table 26T stored in the large-scale storage device 26 is transferred to the monitoring processing unit 32 and used during the monitoring processing in the monitoring processing unit 32.

(再生処理部38) (Reproduction processing unit 38)

図5(A)には、監視処理部32を主体とした、監視システム20の機能ブロック図が示されている。なお、図5に示す各ブロックはハード構成を限定するものではなく、一部又は全部が処理プログラムで動作するようにしてもよい。 FIG. 5A shows a functional block diagram of the monitoring system 20 mainly composed of the monitoring processing unit 32. The hardware configuration of each block shown in FIG. 5 is not limited, and a part or all of the blocks may be operated by a processing program.

メインコントロール部22から、監視処理部32の監視モード実行指示受付部56が処理の実行を受け付けると、監視モード実行指示受付部56は、個人識別情報取得部58及び動画再生時間テーブル読出部60を起動させる。 When the monitoring mode execution instruction receiving unit 56 of the monitoring processing unit 32 receives the execution of the process from the main control unit 22, the monitoring mode execution instruction receiving unit 56 sets the personal identification information acquisition unit 58 and the moving image playback time table reading unit 60. Start it.

個人識別情報取得部58では、これから監視する監視者の個人識別情報を取得し、動画再生時間テーブル取得部62へ通知する。 The personal identification information acquisition unit 58 acquires the personal identification information of the observer to be monitored and notifies the video playback time table acquisition unit 62.

動画再生時間テーブル取得部62では、メインコントロール部22に対して、個人識別情報を通知することで、メインコントロール部22では、大規模記憶装置26の個人別テーブル26Tから、個人識別情報に基づいて、動画再生時間テーブルを抽出し、動画再生時間テーブル取得部62へ転送する。 The moving image playback time table acquisition unit 62 notifies the main control unit 22 of the personal identification information, and the main control unit 22 is based on the personal identification information from the individual table 26T of the large-scale storage device 26. , The moving image reproduction time table is extracted and transferred to the moving image reproduction time table acquisition unit 62.

動画再生時間テーブル取得部62では、取得した動画再生時間テーブル(図5(B)参照)をテーブル一時記憶部64に一時的に記憶する。 The moving image reproduction time table acquisition unit 62 temporarily stores the acquired moving image reproduction time table (see FIG. 5B) in the table temporary storage unit 64.

一方、動画再生時間テーブル読出部60では、監視モード実行指示受付部56から起動の指示を受けると、テーブル一時記憶部64に一時的に記憶された動画再生時間テーブルを取得して、第2カウンタ66を介して、再生処理部38へ送出する。この動画再生時間テーブルの送出が、1回の再生指示となる。 On the other hand, when the moving image reproduction time table reading unit 60 receives an activation instruction from the monitoring mode execution instruction receiving unit 56, the moving image reproduction time table reading unit 60 acquires the moving image reproduction time table temporarily stored in the table temporary storage unit 64 and obtains the second counter. It is sent to the reproduction processing unit 38 via 66. The transmission of this moving image reproduction time table serves as one reproduction instruction.

このとき、モニタ36上の各分割表示領域の映像は頭出し処理が施された状態で一時停止状態とされ、図6に示される如く、分割表示領域1(左上)が基準となり、分割表示領域1の動画再生開始後t1秒後に分割表示領域1(左上)の動画が再生終了して分割表示領域2(右上)の動画が再生開始され、分割表示領域2の再生開始後t2秒後に分割表示領域2(左上)の動画が再生終了して分割表示領域3(左下)の動画が再生開始され、分割表示領域3の再生開始後t3後に分割表示領域3(左下)の動画が再生終了して分割表示領域4(右下)の動画が再生開始され、t4秒後に分割表示領域4(右下)の動画が再生終了するようになっている。 At this time, the image of each divided display area on the monitor 36 is put into a paused state with the cueing process applied, and as shown in FIG. 6, the divided display area 1 (upper left) is used as a reference, and the divided display area is used as a reference. The video in the split display area 1 (upper left) ends and the video in the split display area 2 (upper right) starts playing t1 seconds after the start of playback of the moving image 1 and the split display area 2 starts playing t2 seconds later. The video in the area 2 (upper left) ends playback, the video in the split display area 3 (lower left) starts playing, and the video in the split display area 3 (lower left) ends after t3 after the start of playback in the split display area 3. The moving image in the split display area 4 (lower right) starts playing, and the moving image in the split display area 4 (lower right) ends after t4 seconds.

第2カウンタ66では、再生処理部38から再生回数を取得して、予め定めた再生回数だけ、動画再生時間テーブルの送出を繰り返す。 The second counter 66 acquires the number of reproductions from the reproduction processing unit 38, and repeats the transmission of the moving image reproduction time table as many times as a predetermined number of reproductions.

以下に本実施の形態の動作/作用を、図7〜図9のフローチャートに従い説明する。 The operation / action of the present embodiment will be described below with reference to the flowcharts of FIGS. 7 to 9.

図7は、本実施の形態に係るメインコントロール部22で実行される監視システムメインルーチンを示す制御フローチャートである。 FIG. 7 is a control flowchart showing a monitoring system main routine executed by the main control unit 22 according to the present embodiment.

ステップ100では、ユーザーインターフェイス24から、処理の実行指示があったか否かを判断する。このステップ100で否定判定された場合は、このルーチンは終了する。 In step 100, it is determined from the user interface 24 whether or not there is an instruction to execute the process. If a negative determination is made in step 100, the routine ends.

また、ステップ100で肯定判定されると、ステップ102へ移行して、処理モードを判定する。 If an affirmative decision is made in step 100, the process proceeds to step 102 to determine the processing mode.

ステップ102で処理モードが再生時間決定処理の場合は、ステップ104へ移行して、再生時間決定処理部30を制御して、再生時間決定処理を実行する。 If the processing mode is the reproduction time determination process in step 102, the process proceeds to step 104, and the reproduction time determination processing unit 30 is controlled to execute the reproduction time determination process.

また、ステップ102で処理モードが監視処理の場合は、ステップ106へ移行して、監視処理部32を制御して、監視処理を実行する。 If the processing mode is the monitoring process in step 102, the process proceeds to step 106 to control the monitoring processing unit 32 and execute the monitoring process.

(再生時間決定処理) (Playback time determination process)

図8は、メインコントロール部22からの指示で実行される再生時間決定処理部30における再生時間決定処理ルーチンを示す制御フローチャートである。 FIG. 8 is a control flowchart showing a reproduction time determination processing routine in the reproduction time determination processing unit 30 executed by an instruction from the main control unit 22.

ステップ150では、第1カウンタ52の設定値をN1とし、かつ、監視カメラ数をLとする。本実施の形態では、第1カウンタ52の設定値N1として、10〜50が好ましいとしている。カウント値に特に制限はないが、例えば、再生時間決定のために、視線繰り返し平均値を採用する場合、最低10回分のデータがないと適正な平均値が得られず、50回以上行っても、平均値の精度は上がらないという観点から、一例として、N1=10〜50とした。 In step 150, the set value of the first counter 52 is N1, and the number of surveillance cameras is L. In the present embodiment, the set value N1 of the first counter 52 is preferably 10 to 50. There is no particular limitation on the count value, but for example, when the line-of-sight repetition average value is used to determine the playback time, an appropriate average value cannot be obtained without data for at least 10 times, and even if it is performed 50 times or more. From the viewpoint that the accuracy of the average value does not increase, N1 = 10 to 50 was set as an example.

一方、監視カメラ数Lは、図1に示す主幹路12に沿って直線的に配置された4個の監視カメラ18(図1で実線で図示)を、モニタ36上の同時に再生(表示)するものとして設定した。この監視カメラ数に特に制限はないが、ベルトコンベア12A上の物品14を監視する距離として必要十分であり、モニタ36の画面を分割する場合に、2及び3分割では監視数が足りず、5分割以上では、一般的なサイズのモニタ(30インチ程度)を想定した場合に表示単位サイズが小さくなるという観点から、一例として、L=4とした(図4参照)。 On the other hand, the number of surveillance cameras L simultaneously reproduces (displays) four surveillance cameras 18 (shown by solid lines in FIG. 1) arranged linearly along the main trunk road 12 shown in FIG. 1 on the monitor 36. Set as a thing. The number of surveillance cameras is not particularly limited, but it is necessary and sufficient as a distance for monitoring the article 14 on the belt conveyor 12A, and when the screen of the monitor 36 is divided, the number of surveillances is insufficient in the 2 and 3 divisions, and 5 In the case of division or more, L = 4 is set as an example from the viewpoint that the display unit size becomes smaller when a monitor of a general size (about 30 inches) is assumed (see FIG. 4).

次のステップ152では、変数iの初期値として0を設定し、次いで、ステップ154へ移行して、変数kの初期値として0を設定し、ステップ156へ移行する。 In the next step 152, 0 is set as the initial value of the variable i, then the process proceeds to step 154, 0 is set as the initial value of the variable k, and the process proceeds to step 156.

ステップ156では、変数iをインクリメント(i=i+1)し、次いで、ステップ158では、全ての分割表示領域(図4では、4個の領域)で、それぞれ再生動画の頭出しを実行し、一時停止状態として、ステップ160へ移行する。 In step 156, the variable i is incremented (i = i + 1), and then in step 158, the playback video is cueed and paused in all the divided display areas (4 areas in FIG. 4). As a state, the process proceeds to step 160.

ステップ160では、変数kをインクリメント(k=k+1)し、ステップ162へ移行する。 In step 160, the variable k is incremented (k = k + 1), and the process proceeds to step 162.

次のステップ162では、分割表示領域kの動画を再生開始し、ステップ164へ移行する。再生時間は、最大td(デフォルト10秒)である。 In the next step 162, the moving image in the divided display area k is started to be played back, and the process proceeds to step 164. The maximum playback time is td (default 10 seconds).

ステップ164では、アイトラッキングカメラ40からの視線情報に基づき、監視者の視線又は顔が分割表示領域kからk+1に移動したか否かを判断する。 In step 164, it is determined whether or not the observer's line of sight or face has moved from the divided display area k to k + 1 based on the line of sight information from the eye tracking camera 40.

このステップ164で否定判定された場合は現状の表示状態が維持され、肯定判定された場合は、ステップ166へ移行して、i回目の分割表示領域kの動画の再生時間(監視者が再生動画を見ていた時間)tkを取得し、ステップ168へ移行する。 If a negative determination is made in step 164, the current display state is maintained, and if an affirmative determination is made, the process proceeds to step 166, and the playback time of the moving image in the i-th divided display area k (the observer plays the moving image). (Time spent watching) tk is acquired, and the process proceeds to step 168.

ステップ168では、分割表示領域kの動作を再生終了し、ステップ170へ移行する。なお、ステップ168において、デフォルト値であるtd時間再生を継続させてもよい。この場合、監視者が視線を移動しても、次の分割表示領域で再生が開始するまで、tdの残時間分待機することになる。 In step 168, the operation of the divided display area k ends reproduction, and the process proceeds to step 170. In step 168, the default value of td time reproduction may be continued. In this case, even if the observer moves his / her line of sight, he / she waits for the remaining time of td until the reproduction starts in the next divided display area.

ステップ170では、変数kがLに到達したか(k=L)か否かを判断し、否定判定された場合は、ステップ160へ戻り、上記工程を繰り返す。 In step 170, it is determined whether or not the variable k has reached L (k = L), and if a negative determination is made, the process returns to step 160 and the above steps are repeated.

また、ステップ170で肯定判定された場合は、ステップ172へ移行して、変数iがN1に到達したか(i=N1)否かを判断し、否定判定された場合は、ステップ156へ戻り、上記工程を繰り返す。 If an affirmative judgment is made in step 170, the process proceeds to step 172 to determine whether the variable i has reached N1 (i = N1), and if a negative judgment is made, the process returns to step 156. The above process is repeated.

また、ステップ172で肯定判定された場合は、ステップ174へ移行して、分割表示領域1〜Lにおける動画再生時間tkを決定する。この場合、i回の繰り返しによって得た情報の平均値としたり、中央値とすることができる。 If an affirmative decision is made in step 172, the process proceeds to step 174 to determine the moving image reproduction time tk in the divided display areas 1 to L. In this case, it can be the average value or the median value of the information obtained by repeating i times.

なお、ステップ174において、過去の情報を全て記憶しておき、情報が膨大となった場合に、単純な平均値及び中央値ではなく、個別の監視者の視線情報の変化を学習して、監視時間帯、疲労度等を考慮して、監視者に適正な再生時間tkを予測するようにしてもよい。 In step 174, all the past information is stored, and when the information becomes enormous, the change in the line-of-sight information of each individual observer is learned and monitored instead of the simple average value and median value. The appropriate reproduction time tk may be predicted by the observer in consideration of the time zone, the degree of fatigue, and the like.

次のステップ176では、決定した再生時間tkを、メインコントロール部22の大規模記憶装置26へ格納し、このルーチンは終了する。 In the next step 176, the determined reproduction time tk is stored in the large-scale storage device 26 of the main control unit 22, and this routine ends.

なお、再生時間決定処理部30が、独立した再生時間決定処理装置である場合は、当該独立した再生時間決定処理装置に、再生時間tkを記憶する記憶部を設けてもおい。 When the reproduction time determination processing unit 30 is an independent reproduction time determination processing device, the independent reproduction time determination processing device may be provided with a storage unit for storing the reproduction time tk.

(再生時間決定のためのモニタの動画再生の遷移) (Transition of video playback on the monitor to determine the playback time)

図4は、4台の監視カメラ18を、モニタ36を4分割して同時に再生する場合を例示した、モニタ36の動画再生遷移図である。 FIG. 4 is a moving image reproduction transition diagram of the monitor 36, exemplifying a case where the four surveillance cameras 18 are divided into four and reproduced at the same time.

図4(A)は、全ての分割表示領域が頭出しされて一時停止状態から、k=1のときのモニタ36上の動画再生状態を示している。この場合、図4(A)に示される如く、左上の分割表示領域がtd秒(デフォルトとして10秒)動画再生され、その他の分割表示領域(右上、左下、及び右下)は、一時停止状態(静止画)となる。 FIG. 4A shows a moving image playback state on the monitor 36 when all the divided display areas are cueed and paused, and k = 1. In this case, as shown in FIG. 4A, the upper left split display area is played back for td seconds (10 seconds by default), and the other split display areas (upper right, lower left, and lower right) are in the paused state. (Still image).

ここで、アイトラッキングカメラ40からの視線情報に基づき、再生時間決定部50では、左上の分割表示領域の動画再生開始から監視者の視線が右上の分割表示領域へ移動するまでの時間t1を計測する。なお、全ての監視者が、左上から右上の分割表示領域へ直接移動するとは限らず、一旦、モニタ36から視線をそらす場合もあるので、左上の分割表示領域から離れるまでの時間t1としてもよい。 Here, based on the line-of-sight information from the eye tracking camera 40, the playback time determination unit 50 measures the time t1 from the start of moving image playback in the upper left split display area to the movement of the observer's line of sight to the upper right split display area. To do. It should be noted that not all observers move directly from the upper left to the upper right divided display area, and the line of sight may be temporarily turned away from the monitor 36. Therefore, the time t1 until the monitor leaves the upper left divided display area may be set. ..

デフォルトの10秒が経過すると、図4(B)に示される如く、右上の分割表示領域がtd秒(デフォルトとして10秒)動画再生され、左上の分割表示領域が表示終了状態となり(所謂砂嵐、ブラックアウト、ホワイトアウト、再生終了時の静止画、又は、次の頭出し状態等)、その他の分割表示領域(左下及び右下)は、一時停止状態(静止画)となる。 When the default 10 seconds have elapsed, as shown in FIG. 4B, the split display area on the upper right is played back for td seconds (10 seconds as the default), and the split display area on the upper left is in the display end state (so-called sandstorm, Blackout, whiteout, still image at the end of playback, or the next cueing state, etc.) and other divided display areas (lower left and lower right) are in the paused state (still image).

ここで、アイトラッキングカメラ40からの視線情報に基づき、再生時間決定部50では、右上の分割表示領域の動画再生開始から監視者の視線が左下の分割表示領域へ移動するまでの時間t2を計測する。なお、全ての監視者が、右上ら左下の分割表示領域へ直接移動するとは限らず、一旦、モニタ36から視線をそらす場合もあるので、右上の分割表示領域から離れるまでの時間t2としてもよい。 Here, based on the line-of-sight information from the eye tracking camera 40, the playback time determination unit 50 measures the time t2 from the start of moving image playback in the upper right split display area to the movement of the observer's line of sight to the lower left split display area. To do. It should be noted that not all observers move directly to the split display area from the upper right to the lower left, and the line of sight may be temporarily turned away from the monitor 36. Therefore, the time t2 until the monitor leaves the split display area on the upper right may be set. ..

デフォルトの10秒が経過すると、図4(C)に示される如く、左下の分割表示領域がtd秒(デフォルトとして10秒)動画再生され、左上及び右上の分割表示領域が表示終了状態となり(所謂砂嵐、ブラックアウト、ホワイトアウト、再生終了時の静止画、又は、次の頭出し状態等)、その他の分割表示領域(右下)は、一時停止状態(静止画)となる。 When the default 10 seconds have elapsed, as shown in FIG. 4C, the lower left split display area is played back for td seconds (10 seconds as the default), and the upper left and upper right split display areas are in the display end state (so-called). The sandstorm, blackout, whiteout, still image at the end of playback, or the next cueing state, etc.) and other divided display areas (lower right) are in the paused state (still image).

ここで、アイトラッキングカメラ40からの視線情報に基づき、再生時間決定部50では、左下の分割表示領域の動画再生開始から監視者の視線が右下の分割表示領域へ移動するまでの時間t3を計測する。なお、全ての監視者が、左下から右下の分割表示領域へ直接移動するとは限らず、一旦、モニタ36から視線をそらす場合もあるので、左下の分割表示領域から離れるまでの時間t3としてもよい。 Here, based on the line-of-sight information from the eye tracking camera 40, the playback time determination unit 50 sets the time t3 from the start of moving image playback in the lower left split display area to the movement of the observer's line of sight to the lower right split display area. measure. It should be noted that not all observers move directly from the lower left to the lower right split display area, and the line of sight may be once distracted from the monitor 36. Therefore, the time t3 until the monitor leaves the lower left split display area may be set. Good.

デフォルトの10秒が経過すると、図4(D)に示される如く、右下の分割表示領域がtd秒(デフォルトとして10秒)動画再生され、左上、右上、左下の分割表示領域が表示終了状態となる(所謂砂嵐、ブラックアウト、ホワイトアウト、再生終了時の静止画、又は、次の頭出し状態等)。 When the default 10 seconds have elapsed, as shown in FIG. 4D, the lower right split display area is played back for td seconds (10 seconds as the default), and the upper left, upper right, and lower left split display areas are in the display end state. (So-called sandstorm, blackout, whiteout, still image at the end of playback, or the next cueing state, etc.).

ここで、アイトラッキングカメラ40からの視線情報に基づき、再生時間決定部50では、右下の分割表示領域の動画再生開始から監視者の視線が、左上の分割表示領域へ移動するまでの時間t4を計測する。なお、全ての監視者が、右下から左上の分割表示領域へ直接移動するとは限らず、一旦、モニタ36から視線をそらす場合もあるので、右下の分割表示領域から離れるまでの時間t4としてもよい。 Here, based on the line-of-sight information from the eye tracking camera 40, in the playback time determination unit 50, the time t4 from the start of moving image playback in the lower right split display area to the movement of the observer's line of sight to the upper left split display area. To measure. It should be noted that not all observers move directly from the lower right to the upper left split display area, and the line of sight may be once distracted from the monitor 36. Therefore, the time t4 until the viewer leaves the lower right split display area is set. May be good.

上記図4(A)〜(D)までが、変数iの1カウントとされ、各分割表示領域の再生決定時間tkが決定する(tk=t1、t2、t3、t4)。 The variables i are counted from FIGS. 4 (A) to 4 (D), and the reproduction determination time tk of each divided display area is determined (tk = t1, t2, t3, t4).

(監視処理) (Monitoring process)

図9は、メインコントロール部22からの指示で実行される監視処理部32における監視処理ルーチンを示す制御フローチャートである。 FIG. 9 is a control flowchart showing a monitoring processing routine in the monitoring processing unit 32 executed by an instruction from the main control unit 22.

ステップ200では、初期設定として、第2カウンタ66の設定値をN2とし、監視カメラ18の数Lを4として、ステップ202へ移行する。 In step 200, as an initial setting, the set value of the second counter 66 is set to N2, the number L of the surveillance cameras 18 is set to 4, and the process proceeds to step 202.

第2カウンタ66の設定値は、検査対象の物品数に依存するため、数値的に言及されるものではなく、少なくとも1以上(正の整数)となる。また、監視カメラ18は、図8に示す再生時間決定処理ルーチンに対応して、L=4とする。 Since the set value of the second counter 66 depends on the number of articles to be inspected, it is not numerically referred to and is at least 1 or more (a positive integer). Further, the surveillance camera 18 sets L = 4 corresponding to the reproduction time determination processing routine shown in FIG.

ステップ202では、変数jの初期値として0を設定し、次いで、ステップ204へ移行して、変数kの初期値として0を設定し、ステップ206へ移行する。 In step 202, 0 is set as the initial value of the variable j, then the process proceeds to step 204, 0 is set as the initial value of the variable k, and the process proceeds to step 206.

ステップ206では、監視者の個人識別情報に基づき、メインコントロール部22の大規模記憶装置26から、当該監視者の再生時間テーブルを読み出し、ステップ208へ移行する。なお、監視処理部32が独立した再生時間決定処理装置である場合は、当該独立監視処理に、再生時間tkを記憶する記憶部を設けてもよい。 In step 206, the reproduction time table of the observer is read from the large-scale storage device 26 of the main control unit 22 based on the personal identification information of the observer, and the process proceeds to step 208. When the monitoring processing unit 32 is an independent reproduction time determination processing device, a storage unit for storing the reproduction time tk may be provided in the independent monitoring processing.

ステップ208では、変数jをインクリメント(j=j+1)し、次いで、ステップ210では、全ての分割表示領域(図6では、4個の領域)で、それぞれ再生動画の頭出しを実行し、一時停止状態として、ステップ212へ移行する。 In step 208, the variable j is incremented (j = j + 1), and then in step 210, the playback moving image is cueed and paused in all the divided display areas (four areas in FIG. 6). As a state, the process proceeds to step 212.

ステップ212では、変数kをインクリメント(k=k+1)し、ステップ214へ移行する。 In step 212, the variable k is incremented (k = k + 1), and the process proceeds to step 214.

ステップ214では、j回目の分割表示領域kの動画を再生開始し、ステップ216へ移行する。ステップ216では、再生開始後、tk秒経過したか否かを判断する。 In step 214, the jth moving image of the divided display area k is started to be played back, and the process proceeds to step 216. In step 216, it is determined whether or not tk seconds have elapsed since the start of reproduction.

このステップ216で否定判定された場合は現状の表示状態が維持され、肯定判定された場合は、ステップ218へ移行して、j回目の分割表示領域kの動画を再生終了し、ステップ220へ移行する。 If a negative determination is made in step 216, the current display state is maintained, and if an affirmative determination is made, the process proceeds to step 218, the jth video of the divided display area k is played back, and the process proceeds to step 220. To do.

ステップ220では、変数kがLに到達したか(k=L)か否かを判断し、否定判定された場合は、ステップ212へ戻り、上記工程を繰り返す。 In step 220, it is determined whether or not the variable k has reached L (k = L), and if a negative determination is made, the process returns to step 212 and the above steps are repeated.

また、ステップ220で肯定判定された場合は、ステップ222へ移行して、変数jがN2に到達したか(j=N2)否かを判断し、否定判定された場合は、ステップ208へ戻り、上記工程を繰り返す。 If an affirmative judgment is made in step 220, the process proceeds to step 222 to determine whether the variable j has reached N2 (j = N2), and if a negative judgment is made, the process returns to step 208. The above process is repeated.

また、ステップ222で肯定判定された場合は、このルーチンは終了する。 If an affirmative decision is made in step 222, this routine ends.

(監視処理のためのモニタの動画再生の遷移) (Transition of monitor video playback for monitoring processing)

図6は、4台の監視カメラ18を、モニタ36を4分割して同時に再生する場合を例示した、モニタ36の動画再生遷移図である。 FIG. 6 is a moving image reproduction transition diagram of the monitor 36, exemplifying a case where the four surveillance cameras 18 are divided into four and simultaneously reproduced.

図6(A)は、全ての分割表示領域が頭出しされて一時停止状態から、k=1のときのモニタ36上の動画再生状態を示している。この場合、図6(A)に示される如く、左上の分割表示領域がt1秒動画再生され、その他の分割表示領域(右上、左下、及び右下)は、一時停止状態(静止画)となる。 FIG. 6A shows a moving image playback state on the monitor 36 when all the divided display areas are cueed and paused, and k = 1. In this case, as shown in FIG. 6A, the upper left split display area is played back for t1 seconds, and the other split display areas (upper right, lower left, and lower right) are in the paused state (still image). ..

t1秒が経過すると、図6(B)に示される如く、右上の分割表示領域がt2秒動画再生され、左上の分割表示領域が表示終了状態となり(所謂砂嵐、ブラックアウト、ホワイトアウト、再生終了時の静止画、又は、次の頭出し状態等)、その他の分割表示領域(左下及び右下)は、一時停止状態(静止画)となる。 When t1 second elapses, as shown in FIG. 6B, the split display area on the upper right is played back for t2 seconds, and the split display area on the upper left is in the display end state (so-called sandstorm, blackout, whiteout, playback end). The still image at the time, the next cueing state, etc.) and other divided display areas (lower left and lower right) are in the paused state (still image).

t2秒が経過すると、図6(C)に示される如く、左下の分割表示領域がt3秒動画再生され、左上及び右上の分割表示領域が表示終了状態となり(所謂砂嵐、ブラックアウト、ホワイトアウト、再生終了時の静止画、又は、次の頭出し状態等)、その他の分割表示領域(右下)は、一時停止状態(静止画)となる。 When t2 seconds have elapsed, as shown in FIG. 6C, the lower left split display area is played back for t3 seconds, and the upper left and upper right split display areas are in the display end state (so-called sandstorm, blackout, whiteout, etc.). The still image at the end of playback, the next cueing state, etc.) and other divided display areas (lower right) are in the paused state (still image).

t3秒が経過すると、図6(D)に示される如く、右下の分割表示領域がt4秒動画再生され、左上、右上、左下の分割表示領域が表示終了状態となる(所謂砂嵐、ブラックアウト、ホワイトアウト、再生終了時の静止画、又は、次の頭出し状態等)。 When t3 seconds have elapsed, as shown in FIG. 6D, the lower right split display area is played back for t4 seconds, and the upper left, upper right, and lower left split display areas are in the display end state (so-called sandstorm, blackout). , Whiteout, still image at the end of playback, or the next cueing state, etc.).

上記図6(A)〜(D)までが、変数jの1カウントとされ、各物品毎にt1+t2+t3+t4秒の動画が再生される。 The above FIGS. 6A to 6D are regarded as one count of the variable j, and a moving image of t1 + t2 + t3 + t4 seconds is played for each article.

本実施の形態によれば、再生時間決定処理部30において、監視者の視線等をアイトラッキングカメラ40を用いて観察し、監視のためにどれだけの時間が必要かを監視者毎に再生時間を決定し記憶しておくことができる。 According to the present embodiment, the reproduction time determination processing unit 30 observes the line of sight of the observer using the eye tracking camera 40, and determines how much time is required for monitoring for each observer. Can be determined and memorized.

また、監視処理部32では、予め記憶した個人の再生時間に基づいて、動画を再生しながら監視を行うため、動画再生時間を必要十分な時間とすることができ、作業効率を向上することができる。 Further, since the monitoring processing unit 32 monitors while playing the moving image based on the personal playing time stored in advance, the moving image playing time can be set to a necessary and sufficient time, and the work efficiency can be improved. it can.

比較例として、固定された時間(例えば、デフォルト値の10秒)で監視すると、監視者が物品14を、複数の動画で監視する場合に、待ち時間が長くなり、作業効率が低下することになる。 As a comparative example, if monitoring is performed for a fixed time (for example, the default value of 10 seconds), when the observer monitors the article 14 with a plurality of moving images, the waiting time becomes long and the work efficiency decreases. Become.

これに対して、本実施の形態では、監視者毎に適正な再生時間tkを決定したため、待ち時間が軽減することができ、必要十分な時間で、物品14の監視が可能となる。 On the other hand, in the present embodiment, since the appropriate reproduction time tk is determined for each observer, the waiting time can be reduced and the article 14 can be monitored in a necessary and sufficient time.

なお、本実施の形態では、監視者の視線情報を得るためにアイトラッキングカメラ40を配置して、自動的に視線の移動を検出するようにしたが、アイトラッキングカメラ40に限定せず、監視者の入力操作(例えば、キー操作、ボタン操作等)、及び発話等を、視線の移動があったことを示すトリガーとしてもよい。 In the present embodiment, the eye tracking camera 40 is arranged in order to obtain the line-of-sight information of the observer, and the movement of the line of sight is automatically detected. However, the eye tracking camera 40 is not limited to the eye tracking camera 40. A person's input operation (for example, key operation, button operation, etc.), utterance, or the like may be used as a trigger to indicate that the line of sight has moved.

また、本実施の形態では、再生時間決定処理部30において、最適な同期差分を生成し、監視処理部32における監視作業効率を向上するようにしたが、本発明は、例えば、映像配信に関わる複数コンテンツのザッピングにも、適用可能である。 Further, in the present embodiment, the reproduction time determination processing unit 30 generates an optimum synchronization difference to improve the monitoring work efficiency in the monitoring processing unit 32. However, the present invention is related to, for example, video distribution. It is also applicable to zapping of multiple contents.

さらに、本実施の形態では、映像処理部28、再生時間決定処理部30、及び監視処理部32を、メインコントロール部22のCPU22Aによる処理プログラムによって一括管理する構成としたが、各処理部が独立したCPUの処理プログラムで動作してもよい。また、何れか1つのCPUが、他の処理部を制御するようにしてもよい。 Further, in the present embodiment, the video processing unit 28, the playback time determination processing unit 30, and the monitoring processing unit 32 are collectively managed by a processing program by the CPU 22A of the main control unit 22, but each processing unit is independent. It may be operated by the processing program of the CPU. Further, any one CPU may control the other processing unit.

また、構造上、それぞれの個別の装置構成(映像処理部28を映像処理装置、再生時間決定処理部30を再生時間決定処理装置、及び監視処理部32を監視処理装置としてユニット化)としてもよい。この場合、用途に応じて組み合わせ、通信インターフェイス等によって情報をやり取りして、再生時間決定処理モード及び監視処理モードを構築するようにしてもよい。 Further, structurally, each may have an individual device configuration (the video processing unit 28 is unitized as a video processing device, the reproduction time determination processing unit 30 is unitized as a reproduction time determination processing device, and the monitoring processing unit 32 is a monitoring processing device). .. In this case, the reproduction time determination processing mode and the monitoring processing mode may be constructed by combining them according to the intended use and exchanging information through a communication interface or the like.

なお、本実施の形態では、CPUがプログラムを実行することによってソフトウェアにより実現される機能を、例えば、半導体集積回路等のハードウェアにより実現してもよいし、ハードウェアとソフトウェアとの組み合わせにより実現してもよい。 In the present embodiment, the function realized by software when the CPU executes a program may be realized by hardware such as a semiconductor integrated circuit, or by a combination of hardware and software. You may.

また、本実施の形態では、処理プログラムが予め記憶(インストール)されている態様を説明したが、これに限定されない。処理プログラムは、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、処理プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。 Further, in the present embodiment, the mode in which the processing program is stored (installed) in advance has been described, but the present invention is not limited to this. The processing program may be provided in a form recorded on a recording medium such as a CD-ROM (Compact Disc Read Only Memory), a DVD-ROM (Digital Versatile Disc Read Only Memory), and a USB (Universal Serial Bus) memory. .. Further, the processing program may be downloaded from an external device via a network.

10 物品搬送ライン
12 主幹路
12A ベルトコンベア
14 物品
16A、16B 枝路
18 監視カメラ
18G 監視カメラ群
20 監視システム
22 メインコントロール部
22A CPU
22B RAM
22C ROM
22D 入出力部(I/O)
22E バス
24 ユーザーインターフェイス
28 映像処理部
30 再生時間決定処理部(タイミング情報設定部)
32 監視処理部(表示制御部)
26 大規模記憶装置
26T 個人別テーブル
34 映像情報蓄積部
36 モニタ
38 再生処理部
40 アイトラッキングカメラ
42 実行管理部
44 同期差分デフォルト値読出部
46 視線抽出部
48 同期差分デフォルト値記憶部
50 再生時間決定部
52 第1カウンタ
54 動画再生時間テーブル生成部
56 監視モード実行指示受付部
58 個人識別情報取得部
60 動画再生時間テーブル読出部
62 動画再生時間テーブル取得部
64 テーブル一時記憶部
66 第2カウンタ
10 Goods transport line 12 Main road 12A Belt conveyor 14 Goods 16A, 16B Branch road 18 Surveillance camera 18G Surveillance camera group 20 Surveillance system 22 Main control unit 22A CPU
22B RAM
22C ROM
22D input / output unit (I / O)
22E bus 24 User interface 28 Video processing unit 30 Playback time determination processing unit (timing information setting unit)
32 Monitoring processing unit (display control unit)
26 Large-scale storage device 26T Individual table 34 Video information storage unit 36 Monitor 38 Playback processing unit 40 Eye tracking camera 42 Execution management unit 44 Synchronous difference default value reading unit 46 Line-of-sight extraction unit 48 Synchronous difference default value storage unit 50 Playback time determination Unit 52 1st counter 54 Video playback time table generation unit 56 Monitoring mode execution instruction reception unit 58 Personal identification information acquisition unit 60 Video playback time table reading unit 62 Video playback time table acquisition unit 64 Table temporary storage unit 66 2nd counter

Claims (6)

所定の撮影領域を複数の撮影装置で撮影した複数種の映像情報に基づき、表示装置に同時に再生表示された映像を監視者が視線を移動させながら目視により監視する処理装置であって、
前記複数種の撮影情報の各々に対応付けられたタイミング情報に基づいて、前記表示装置への再生表示開始タイミングをずらして、前記複数種の映像情報に基づく各映像を表示制御する表示制御部を有する処理装置。
A processing device that visually monitors an image simultaneously reproduced and displayed on a display device based on a plurality of types of image information captured by a plurality of imaging devices in a predetermined imaging area while the observer moves the line of sight.
A display control unit that controls the display of each image based on the plurality of types of image information by shifting the playback display start timing on the display device based on the timing information associated with each of the plurality of types of shooting information. Processing equipment to have.
特定オブジェクトが、搬送装置に沿って搬送されており、
当該搬送装置に沿って前記複数の撮影装置が間隔を隔てて配置され、
前記複数の撮影装置の各々により、前記搬送装置によって搬送されている前記特定オブジェクトを撮影する請求項1記載の処理装置。
A specific object is being transported along the transport device,
The plurality of photographing devices are arranged at intervals along the transfer device, and the plurality of photographing devices are arranged at intervals.
The processing device according to claim 1, wherein each of the plurality of photographing devices photographs the specific object conveyed by the conveying device.
前記タイミング情報として、前記監視者が複数の映像情報に基づく再生表示映像を順番に監視するときの時間差情報を、各映像情報に紐付けるタイミング情報設定部をさらに有する請求項1又は請求項2記載の処理装置。 The first or second aspect of claim 1 or 2, further comprising a timing information setting unit that associates the time difference information when the observer sequentially monitors the reproduced display video based on the plurality of video information as the timing information with each video information. Processing equipment. 前記監視者の視線の移動を含む視線情報を検出するアイトラッキングカメラを備え、
前記タイミング情報として、前記視線情報に基づき、前記監視者が複数の映像情報に基づく再生表示映像を予め定めた順序で確認するために移動させる視線方向から抽出する時間差情報を、各映像情報に紐付けるタイミング情報設定部をさらに有する請求項1又は請求項2記載の処理装置。
The eye tracking camera for detecting the line-of-sight information including the movement of the line-of-sight of the observer is provided.
As the timing information, time difference information extracted from the line-of-sight direction that the observer moves to confirm the reproduced display video based on the plurality of video information in a predetermined order based on the line-of-sight information is linked to each video information. The processing device according to claim 1 or 2, further comprising a timing information setting unit to be attached.
所定の撮影領域を複数の撮影装置で撮影した複数種の映像情報に基づき、表示装置に同時に再生表示された映像を監視者が視線を移動させながら目視により監視するコンピュータを、
前記複数種の撮影情報の各々に対応付けられたタイミング情報に基づいて、前記表示装置への再生表示開始タイミングをずらして、前記複数種の映像情報に基づく各映像を表示制御する表示制御部
として機能させるための処理プログラム。
A computer that visually monitors a video displayed simultaneously on a display device based on a plurality of types of video information shot by a plurality of shooting devices in a predetermined shooting area while the observer moves his / her line of sight.
As a display control unit that controls the display of each video based on the plurality of types of video information by shifting the playback display start timing on the display device based on the timing information associated with each of the plurality of types of shooting information. A processing program to make it work.
所定の撮影領域を複数の撮影装置で撮影した複数種の映像情報に基づき、表示装置に同時に再生表示された映像を監視者が視線を移動させながら目視により監視する処理方法であって、
前記複数種の撮影情報の各々に対応付けられたタイミング情報に基づいて、前記表示装置への再生表示開始タイミングをずらして、前記複数種の映像情報に基づく各映像を表示制御する処理方法。
This is a processing method in which a viewer visually monitors a predetermined shooting area while moving his / her line of sight, based on a plurality of types of video information shot by a plurality of shooting devices and simultaneously reproduced and displayed on a display device.
A processing method for displaying and controlling each video based on the plurality of types of video information by shifting the playback display start timing on the display device based on the timing information associated with each of the plurality of types of shooting information.
JP2019029320A 2019-02-21 2019-02-21 Processing device, processing program, and processing method Pending JP2020136954A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019029320A JP2020136954A (en) 2019-02-21 2019-02-21 Processing device, processing program, and processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019029320A JP2020136954A (en) 2019-02-21 2019-02-21 Processing device, processing program, and processing method

Publications (1)

Publication Number Publication Date
JP2020136954A true JP2020136954A (en) 2020-08-31

Family

ID=72279210

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019029320A Pending JP2020136954A (en) 2019-02-21 2019-02-21 Processing device, processing program, and processing method

Country Status (1)

Country Link
JP (1) JP2020136954A (en)

Similar Documents

Publication Publication Date Title
CN1977526B (en) Image capture method and image capture device
JP6171908B2 (en) Data analysis device
JP2006033224A (en) Device and method for tracking object
CN103048846B (en) Focus-regulating device and control method thereof
CN101681564A (en) Content generation system, content generation device, and content generation program
JP2008148158A (en) Monitoring device and monitoring method
US9197870B1 (en) Automatic projection focusing
CN101835017A (en) Playback apparatus and video reproducing method
CN109564376A (en) Time-multiplexed programmable view field imaging
CN103369220A (en) Imaging device, control method of imaging device, and computer program
KR20110001913A (en) Method and system for display of a video file
CN102045581A (en) Capturing device, image processing method, and program
CN107087121A (en) A kind of Autoconducting method and device based on motion detection
US20200084426A1 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
JP2011145818A (en) Work image management system
EP3023987A1 (en) Method and apparatus for visualizing information of a digital video stream
JP2016166089A (en) Article management device and article management method
JP2020136954A (en) Processing device, processing program, and processing method
JP2011155477A (en) Video processing apparatus, video processing method, and program
CN103379263A (en) Imaging device and imaging processing method
CN109064526A (en) A kind of method and device generating picture mosaic
KR20070032894A (en) Moving picture viewing system, moving picture viewing device, control method and program thereof
KR101529139B1 (en) Method and apparatus for providing user interface menu of multi-angle video capturing
US10452060B2 (en) System and method for monitoring multi-projection theater
JP2006332789A (en) Video photographing method, apparatus, and program, and storage medium for storing the program