JP6852500B2 - Information output device, program and information output method - Google Patents

Information output device, program and information output method Download PDF

Info

Publication number
JP6852500B2
JP6852500B2 JP2017061172A JP2017061172A JP6852500B2 JP 6852500 B2 JP6852500 B2 JP 6852500B2 JP 2017061172 A JP2017061172 A JP 2017061172A JP 2017061172 A JP2017061172 A JP 2017061172A JP 6852500 B2 JP6852500 B2 JP 6852500B2
Authority
JP
Japan
Prior art keywords
image
captured
target image
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017061172A
Other languages
Japanese (ja)
Other versions
JP2018163573A (en
Inventor
茂穂 水野
茂穂 水野
博章 中山
博章 中山
皇治 大村
皇治 大村
Original Assignee
サクサ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サクサ株式会社 filed Critical サクサ株式会社
Priority to JP2017061172A priority Critical patent/JP6852500B2/en
Publication of JP2018163573A publication Critical patent/JP2018163573A/en
Application granted granted Critical
Publication of JP6852500B2 publication Critical patent/JP6852500B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置の撮像範囲を調整するための情報を出力する情報出力装置、プログラム及び情報出力方法に関する。 The present invention relates to an information output device, a program, and an information output method for outputting information for adjusting the imaging range of the image pickup device.

監視カメラを設置する際には、監視したい対象物が含まれる撮像画像が出力されるように、監視カメラの撮像範囲の調整を行う必要がある(例えば、特許文献1を参照)。 When installing the surveillance camera, it is necessary to adjust the imaging range of the surveillance camera so that the captured image including the object to be monitored is output (see, for example, Patent Document 1).

特開2016−123004号公報Japanese Unexamined Patent Publication No. 2016-123004

従来、監視カメラの撮像範囲を調整するためには、監視カメラにより撮像された画像を視認しながら監視カメラを動かす向きを指示する人、及び監視カメラの位置を動かす人の2名で作業を行わなければならなかった。このような中、設置作業に要するコストを削減するために、監視カメラの設置作業に要する作業者の数を低減する技術が求められている。 Conventionally, in order to adjust the imaging range of the surveillance camera, two people, a person who instructs the direction to move the surveillance camera while visually recognizing the image captured by the surveillance camera and a person who moves the position of the surveillance camera, perform the work. I had to. Under these circumstances, in order to reduce the cost required for the installation work, a technique for reducing the number of workers required for the installation work of the surveillance camera is required.

そこで、本発明はこれらの点に鑑みてなされたものであり、監視用に用いられる撮像装置の設置作業に要する作業員の数を低減するための情報を出力する情報出力装置、情報出力方法及びプログラムを提供することを目的とする。 Therefore, the present invention has been made in view of these points, and is an information output device, an information output method, and an information output device for outputting information for reducing the number of workers required for the installation work of the image pickup device used for monitoring. The purpose is to provide a program.

本発明の第1の態様の情報出力装置は、撮像装置が撮像する範囲の目標範囲の画像である目標画像を取得する目標画像取得部と、前記撮像装置が撮像した撮像画像を取得する撮像画像取得部と、前記撮像画像における、前記目標画像の少なくとも一部の領域の画像と類似する画像領域の位置を特定する特定部と、前記特定部が特定した位置と、前記撮像画像の中心位置との関係に基づく情報を出力する情報出力部と、を有する。 The information output device according to the first aspect of the present invention includes a target image acquisition unit that acquires a target image that is an image of a target range in a range captured by the imaging device, and an captured image that acquires an captured image captured by the imaging device. The acquisition unit, a specific unit that specifies the position of an image region similar to the image of at least a part of the target image in the captured image, the position specified by the specific unit, and the center position of the captured image. It has an information output unit that outputs information based on the relationship between.

前記目標画像取得部は、前記撮像装置に撮像させる撮像画像の位置又は領域を特定するための領域指定情報をさらに取得し、前記特定部は、前記撮像画像における前記領域指定情報に対応する位置を、前記目標画像の少なくとも一部の領域の画像と類似する画像領域の位置として特定してもよい。 The target image acquisition unit further acquires area designation information for specifying the position or region of the captured image to be imaged by the imaging device, and the specific unit obtains a position corresponding to the region designation information in the captured image. , The position of an image region similar to the image of at least a part of the target image may be specified.

前記目標画像取得部は、前記目標画像が撮影された高さを示す高さ情報をさらに取得し、
前記特定部は、前記高さ情報に基づいて前記目標画像を補正した補正目標画像の少なくとも一部の領域の画像の位置を特定してもよい。
The target image acquisition unit further acquires height information indicating the height at which the target image was captured.
The specific unit may specify the position of the image in at least a part of the corrected target image obtained by correcting the target image based on the height information.

前記特定部は、前記目標画像に含まれている一以上の特徴点を抽出し、前記目標画像の少なくとも一部の領域の画像の位置として、前記撮像画像における前記特徴点と同一の特徴を有する一以上の画素の位置を特定してもよい。 The specific unit extracts one or more feature points included in the target image, and has the same features as the feature points in the captured image as the position of the image in at least a part of the target image. The position of one or more pixels may be specified.

前記情報出力部は、前記特定部が特定した位置と前記撮像画像の中心位置との関係に基づく音の情報を出力してもよい。 The information output unit may output sound information based on the relationship between the position specified by the specific unit and the center position of the captured image.

前記情報出力部は、前記特定部が特定した位置と前記撮像画像の中心位置との関係に基づいて、前記撮像装置の位置を制御するための制御情報を出力してもよい。 The information output unit may output control information for controlling the position of the image pickup device based on the relationship between the position specified by the specific unit and the center position of the captured image.

本発明の第2の態様のプログラムは、コンピュータを、撮像装置が撮像する範囲の目標範囲の画像である目標画像を取得する目標画像取得部、前記撮像装置が撮像した撮像画像を取得する撮像画像取得部、前記撮像画像における、前記目標画像の少なくとも一部の領域の画像と類似する画像領域の位置を特定する特定部、及び前記特定部が特定した位置と、前記撮像画像の中心位置との関係に基づく情報を出力する。 In the program of the second aspect of the present invention, the computer is subjected to a target image acquisition unit that acquires a target image that is an image of a target range in a range captured by the imaging device, and an captured image that acquires an captured image captured by the imaging device. The acquisition unit, the specific unit that specifies the position of an image region similar to the image of at least a part of the target image in the captured image, and the position specified by the specific unit and the center position of the captured image. Output information based on relationships.

本発明の第3の態様の情報出力方法は、コンピュータが実行する、撮像装置が撮像する範囲の目標範囲の画像である目標画像を取得するステップと、前記撮像装置が撮像した撮像画像を取得するステップと、前記撮像画像における、前記目標画像の少なくとも一部の領域の画像と類似する画像領域の位置を特定するステップと、特定した位置と、前記撮像画像の中心位置との関係に基づく情報を出力するステップと、を有する。 The information output method of the third aspect of the present invention is a step of acquiring a target image which is an image of a target range of a range imaged by an imaging device, which is executed by a computer, and an image captured by the imaging device. Information based on the step, the step of specifying the position of an image region similar to the image of at least a part of the target image in the captured image, and the relationship between the specified position and the center position of the captured image. It has a step to output and.

本発明によれば、監視用に用いられる撮像装置の設置作業に要する作業員の数を低減することができるという効果を奏する。 According to the present invention, it is possible to reduce the number of workers required for the installation work of the image pickup apparatus used for monitoring.

第1の実施形態の作業支援システムの構成を示す図である。It is a figure which shows the structure of the work support system of 1st Embodiment. 作業支援システムにおける処理の流れの概要を説明するための図である。It is a figure for demonstrating the outline of the processing flow in a work support system. サーバの構成を示す図である。It is a figure which shows the configuration of a server. 高さ情報に基づく目標画像の補正について説明するための図である。It is a figure for demonstrating the correction of the target image based on the height information. 目標画像と類似する画像領域の位置を特定する方法について説明するための図である。It is a figure for demonstrating the method of specifying the position of the image area similar to a target image. 情報出力部が出力する情報を生成する方法を説明するための図である。It is a figure for demonstrating the method of generating the information output by an information output part. ユーザが撮像装置の撮像範囲を調整する際の作業支援システムにおける処理シーケンスの一例を示す図である。It is a figure which shows an example of the processing sequence in the work support system when the user adjusts the image pickup range of an image pickup apparatus. 撮像装置の構成を示す図である。It is a figure which shows the structure of the image pickup apparatus. 撮像装置の動作について説明するための図である。It is a figure for demonstrating operation of an image pickup apparatus. 第2の実施形態の作業支援システムにおいて撮像装置の撮像範囲を調整する際の処理シーケンスの一例を示す図である。It is a figure which shows an example of the processing sequence at the time of adjusting the image pickup range of the image pickup apparatus in the work support system of 2nd Embodiment. 第2の実施形態の作業支援システムにおいて撮像装置の撮像範囲を調整する際の処理シーケンスの一例を示す図である。It is a figure which shows an example of the processing sequence at the time of adjusting the image pickup range of the image pickup apparatus in the work support system of 2nd Embodiment. 第3の実施形態の作業支援システムにおいて撮像装置の撮像範囲を調整する際の処理シーケンスの一例を示す図である。It is a figure which shows an example of the processing sequence at the time of adjusting the image pickup range of the image pickup apparatus in the work support system of 3rd Embodiment.

<第1の実施形態>
[作業支援システムSの構成の概要]
図1は、第1の実施形態の作業支援システムSの構成を示す図である。作業支援システムSは、撮像装置1と、携帯端末2と、サーバ3と、を備える。撮像装置1、携帯端末2及びサーバ3は、ネットワークNを介して互いに情報を送受信できる。ネットワークNは、例えばインターネット及び携帯電話網を含む。
<First Embodiment>
[Outline of configuration of work support system S]
FIG. 1 is a diagram showing a configuration of a work support system S according to the first embodiment. The work support system S includes an image pickup device 1, a mobile terminal 2, and a server 3. The image pickup device 1, the mobile terminal 2, and the server 3 can send and receive information to and from each other via the network N. Network N includes, for example, the Internet and mobile phone networks.

撮像装置1は、監視用に用いられるカメラであり、所定の撮像範囲内の被写体を撮影し、撮影した被写体を含む撮像画像を生成する。撮像装置1は、所定のフレームレートで撮像画像を順次生成し、ネットワークNを介して、生成した撮像画像を携帯端末2又はサーバ3に送信する。 The imaging device 1 is a camera used for surveillance, captures a subject within a predetermined imaging range, and generates an captured image including the captured subject. The image pickup device 1 sequentially generates captured images at a predetermined frame rate, and transmits the generated captured images to the mobile terminal 2 or the server 3 via the network N.

携帯端末2は、例えばスマートフォン又はタブレット端末であり、撮像装置1の設置作業者(以下、ユーザという)が操作する操作端末である。携帯端末2の画面にはタッチパネルが設けられており、ユーザは、画面に触れることにより、サーバ3に伝える指示を入力することができる。携帯端末2は、ユーザに操作に基づいて被写体を撮影して撮像画像を生成する。携帯端末2は、生成した撮像画像を、撮像装置1が撮像する範囲の目標範囲の画像である目標画像としてサーバ3に送信する。 The mobile terminal 2 is, for example, a smartphone or a tablet terminal, and is an operation terminal operated by an installation worker (hereinafter referred to as a user) of the image pickup device 1. A touch panel is provided on the screen of the mobile terminal 2, and the user can input an instruction to be transmitted to the server 3 by touching the screen. The mobile terminal 2 captures a subject based on an operation by the user and generates an captured image. The mobile terminal 2 transmits the generated captured image to the server 3 as a target image which is an image of a target range in the range captured by the imaging device 1.

サーバ3は、携帯端末2から取得した目標画像、及び撮像装置1から取得した撮像画像に基づいて、撮像装置1による撮像範囲が適切な範囲になるように撮像装置1の設置位置を調整するための情報を撮像装置1及び携帯端末2の少なくともいずれかに出力する情報出力装置である。サーバ3は、撮像装置1が設置された事業所内に設置されたサーバであってもよく、クラウド上のサーバであってもよい。 The server 3 adjusts the installation position of the image pickup device 1 so that the image pickup range by the image pickup device 1 becomes an appropriate range based on the target image acquired from the mobile terminal 2 and the image pickup image acquired from the image pickup device 1. This is an information output device that outputs the information of the above to at least one of the image pickup device 1 and the mobile terminal 2. The server 3 may be a server installed in the business establishment where the image pickup apparatus 1 is installed, or may be a server on the cloud.

[作業支援システムSにおける処理の流れの概要]
図2は、作業支援システムSにおける処理の流れの概要を説明するための図である。
まず、ユーザの操作に基づいて、携帯端末2は目標画像を生成する(図2における(1))。携帯端末2は、生成した目標画像をサーバ3に送信し、サーバ3は目標画像を取得する(図2における(2))。
[Outline of processing flow in work support system S]
FIG. 2 is a diagram for explaining an outline of the processing flow in the work support system S.
First, the mobile terminal 2 generates a target image based on the user's operation ((1) in FIG. 2). The mobile terminal 2 transmits the generated target image to the server 3, and the server 3 acquires the target image ((2) in FIG. 2).

続いて、撮像装置1が撮像画像を順次生成してサーバ3に送信し、サーバ3は撮像画像を取得する(図2における(3))。サーバ3は、取得した撮像画像において目標画像と類似する画像の領域(以下、目標画像領域という)を探索する。サーバ3は、撮像画像における目標画像領域の位置を特定すると、撮像画像の中心位置と目標画像領域の中心位置との関係を特定する。サーバ3は、特定した関係に基づいて、撮像装置1の撮像範囲を調整するための情報を生成する。本実施形態のサーバ3は、撮像装置1の撮像範囲を調整するための音を携帯端末2が出力するための音情報を出力する(図2における(4))。 Subsequently, the imaging device 1 sequentially generates captured images and transmits them to the server 3, and the server 3 acquires the captured images ((3) in FIG. 2). The server 3 searches for an image region (hereinafter, referred to as a target image region) similar to the target image in the acquired captured image. When the server 3 specifies the position of the target image area in the captured image, the server 3 specifies the relationship between the center position of the captured image and the center position of the target image area. The server 3 generates information for adjusting the imaging range of the imaging device 1 based on the specified relationship. The server 3 of the present embodiment outputs sound information for the mobile terminal 2 to output a sound for adjusting the imaging range of the imaging device 1 ((4) in FIG. 2).

携帯端末2は、サーバ3から音情報を受信すると、音情報に基づく音をスピーカーから出力する(図2における(4))。携帯端末2が出力する音の詳細については後述するが、例えば、携帯端末2は、目標画像領域の中心位置と撮像画像の中心位置との距離、及び撮像装置1を上下左右のどの向きに動かすと、撮像画像の中心位置が目標画像領域の中心位置に近付くかを示す音を出力する。携帯端末2がこのような音を出力することで、ユーザは、携帯端末2をポケットに入れた状態で、両手を使って一人で撮像装置1の向きを動かして、撮像装置1の撮像範囲を調整することができる。なお、以上の説明においては、携帯端末2が目標画像を生成するものとしたが、目標画像を生成する端末は任意であり、ユーザ以外の人(例えば、撮像装置1を設置する事業所の人)の端末により目標画像を生成してもよい。 When the mobile terminal 2 receives the sound information from the server 3, the mobile terminal 2 outputs the sound based on the sound information from the speaker ((4) in FIG. 2). The details of the sound output by the mobile terminal 2 will be described later. For example, the mobile terminal 2 moves the distance between the center position of the target image area and the center position of the captured image and the direction in which the image pickup device 1 is moved up, down, left or right. Then, a sound indicating whether the center position of the captured image approaches the center position of the target image area is output. When the mobile terminal 2 outputs such a sound, the user can move the direction of the image pickup device 1 by himself / herself with both hands while the mobile terminal 2 is in the pocket to obtain the image pickup range of the image pickup device 1. Can be adjusted. In the above description, it is assumed that the mobile terminal 2 generates the target image, but the terminal that generates the target image is arbitrary, and a person other than the user (for example, a person in the business establishment where the image pickup device 1 is installed). ) May generate a target image.

[サーバ3の構成]
以下、サーバ3の詳細な構成について説明する。
図3は、サーバ3の構成を示す図である。サーバ3は、通信部31と、記憶部32と、制御部33とを有する。通信部31は、ネットワークNを介して情報を送受信するための通信インターフェースであり、例えばLAN(Local Area Network)コントローラを含んでいる。通信部31は、撮像装置1又は携帯端末2から受信した情報を制御部33に通知する。また、通信部31は、制御部33から入力された情報を撮像装置1又は携帯端末2に送信する。
[Configuration of server 3]
Hereinafter, the detailed configuration of the server 3 will be described.
FIG. 3 is a diagram showing the configuration of the server 3. The server 3 has a communication unit 31, a storage unit 32, and a control unit 33. The communication unit 31 is a communication interface for transmitting and receiving information via the network N, and includes, for example, a LAN (Local Area Network) controller. The communication unit 31 notifies the control unit 33 of the information received from the image pickup device 1 or the mobile terminal 2. Further, the communication unit 31 transmits the information input from the control unit 33 to the image pickup device 1 or the mobile terminal 2.

記憶部32は、情報を記憶する記憶媒体であり、例えばハードディスク、ROM(Read Only Memory)、及びRAM(Random Access Memory)を含んでいる。記憶部32は、制御部33が実行するプログラムを記憶している。 The storage unit 32 is a storage medium for storing information, and includes, for example, a hard disk, a ROM (Read Only Memory), and a RAM (Random Access Memory). The storage unit 32 stores a program executed by the control unit 33.

制御部33は、例えばCPU(Central Processing Unit)であり、記憶部32に記憶されたプログラムを実行することにより、撮像画像取得部331、目標画像取得部332、特定部333及び情報出力部334として機能する。 The control unit 33 is, for example, a CPU (Central Processing Unit), and by executing a program stored in the storage unit 32, the control unit 33 can be used as an image capture image acquisition unit 331, a target image acquisition unit 332, a specific unit 333, and an information output unit 334. Function.

撮像画像取得部331は、撮像装置1が送信した撮像画像を取得する。具体的には、撮像画像取得部331は、ユーザが撮像装置1の撮像範囲を調整する間に用いる撮像画像を取得する。 The captured image acquisition unit 331 acquires the captured image transmitted by the imaging device 1. Specifically, the captured image acquisition unit 331 acquires an captured image to be used while the user adjusts the imaging range of the imaging device 1.

目標画像取得部332は、例えば携帯端末から目標画像を取得する。目標画像取得部332は、取得した目標画像を記憶部32に記憶させる。目標画像取得部332は、例えばユーザにより入力された、撮像装置1に撮像させる撮像画像の位置又は領域を特定するための領域指定情報をさらに取得し、取得した目標画像のうち、領域指定情報が示す領域を目標画像として記憶部32に記憶させてもよい。また、目標画像取得部332は、目標画像が撮影された高さを示す高さ情報を取得してもよい。目標画像取得部332は、例えば、目標画像のメタデータとして含まれている高さ情報を取得する。 The target image acquisition unit 332 acquires a target image from, for example, a mobile terminal. The target image acquisition unit 332 stores the acquired target image in the storage unit 32. The target image acquisition unit 332 further acquires the area designation information for specifying the position or region of the captured image to be imaged by the imaging device 1, for example, which is input by the user, and among the acquired target images, the region designation information is The indicated area may be stored in the storage unit 32 as a target image. Further, the target image acquisition unit 332 may acquire height information indicating the height at which the target image is captured. The target image acquisition unit 332 acquires, for example, height information included as metadata of the target image.

特定部333は、撮像画像における、目標画像の少なくとも一部の領域の画像と類似する画像領域の位置を特定する。例えば、特定部333は、撮像画像において目標画像との相関度が最も高い、目標画像と同じサイズの領域を目標画像領域として特定する。目標画像取得部332が、領域指定情報を取得した場合、特定部333は、撮像画像における領域指定情報に対応する位置を目標画像領域の位置として特定する。そして、特定部333は、目標画像領域の中心位置と撮像画像の中心位置との間の差分を算出し、算出した差分を示す情報を情報出力部334に通知する。 The identification unit 333 specifies the position of an image region similar to the image of at least a part of the target image in the captured image. For example, the identification unit 333 specifies a region having the same size as the target image, which has the highest correlation with the target image in the captured image, as the target image region. When the target image acquisition unit 332 acquires the area designation information, the specific unit 333 specifies the position corresponding to the area designation information in the captured image as the position of the target image area. Then, the specific unit 333 calculates the difference between the center position of the target image region and the center position of the captured image, and notifies the information output unit 334 of the information indicating the calculated difference.

特定部333は、撮像画像における、目標画像の少なくとも一部の領域の画像と類似する画像領域の位置を特定する前に、高さ情報が示す目標画像が撮影された高さが、撮像装置1が設置される位置の高さと異なる場合、高さ情報に基づいて目標画像を補正する。 In the identification unit 333, the height at which the target image indicated by the height information is captured is the height at which the target image indicated by the height information is captured before specifying the position of the image region similar to the image of at least a part of the target image in the captured image. If is different from the height of the installation position, the target image is corrected based on the height information.

図4は、特定部333により実行される、高さ情報に基づく目標画像の補正について説明するための図である。図4(a)に示すように、監視カメラとして用いられる撮像装置1は、人の身長よりも高い位置に設置されることが多い。この場合、ユーザが携帯端末2を用いて目標画像を生成するための被写体を撮影した時の第1高さは、撮像装置1が設置されている位置の第2高さよりも低い。 FIG. 4 is a diagram for explaining the correction of the target image based on the height information, which is executed by the specific unit 333. As shown in FIG. 4A, the imaging device 1 used as a surveillance camera is often installed at a position higher than the height of a person. In this case, the first height when the user takes a picture of the subject for generating the target image using the mobile terminal 2 is lower than the second height at the position where the image pickup device 1 is installed.

図4(b)は、携帯端末2が被写体を撮影して生成した目標画像であり、図4(c)は、撮像装置1が同じ被写体を撮影して生成した撮像画像である。図4(b)及び図4(c)に示すように、撮像装置1が生成する撮像画像における被写体の上下方向の幅は、携帯端末2が生成する目標画像における被写体の上下方向の幅よりも小さくなる。そこで、特定部333は、第1高さと第2高さとの関係に基づいて、目標画像の上下方向の幅を縮小するように補正することにより、補正目標画像を生成する。そして、特定部333は、撮像画像において、補正目標画像との相関度が最も高い、補正目標画像と同じサイズの領域を目標画像領域として特定する。 FIG. 4B is a target image generated by the mobile terminal 2 taking a picture of the subject, and FIG. 4C is an image taken by the image pickup device 1 taking the same subject. As shown in FIGS. 4 (b) and 4 (c), the vertical width of the subject in the captured image generated by the imaging device 1 is larger than the vertical width of the subject in the target image generated by the mobile terminal 2. It becomes smaller. Therefore, the specific unit 333 generates a correction target image by correcting the width of the target image in the vertical direction based on the relationship between the first height and the second height. Then, the identification unit 333 specifies, in the captured image, a region having the highest correlation with the correction target image and having the same size as the correction target image as the target image region.

図5は、目標画像と類似する画像領域の位置を特定する方法について説明するための図である。図5に示す画像は、左上の位置を原点とし、図5(a)に示すように、左右方向がx座標であり、上下方向がy座標であるとする。 FIG. 5 is a diagram for explaining a method of specifying the position of an image region similar to the target image. The image shown in FIG. 5 has the origin at the upper left position, and as shown in FIG. 5A, the left-right direction is the x-coordinate and the vertical direction is the y-coordinate.

特定部333は、目標画像と類似する画像領域の位置を特定するために、例えば補正目標画像に含まれている特徴点を特定する。特徴点は、補正目標画像に含まれている被写体の輪郭上の位置のように、補正目標画像内の他の領域の画像と異なる特徴を持つ位置である。図5(b)においては、特定部333が、右側の木の頂上部分を特徴点としたことを想定している。 The identification unit 333 specifies, for example, feature points included in the correction target image in order to specify the position of an image region similar to the target image. The feature point is a position having a feature different from that of an image in another region in the correction target image, such as a position on the contour of the subject included in the correction target image. In FIG. 5B, it is assumed that the specific portion 333 has the top portion of the tree on the right side as a feature point.

特定部333は、補正目標画像における特徴点の座標(特徴点座標F)を特定するとともに、補正目標画像の中心位置の座標(センター座標C1)を特定する。特徴点座標F1は、センター座標C1に対して、左右方向にx1、上下方向にy1だけずれている。特定部333は、特徴点座標F1とセンター座標C1との間の差分を示す第1差分ベクトル(x1、y1)を情報出力部334に通知する。 The identification unit 333 specifies the coordinates of the feature points in the correction target image (feature point coordinates F) and the coordinates of the center position of the correction target image (center coordinates C1). The feature point coordinate F1 is deviated from the center coordinate C1 by x1 in the left-right direction and y1 in the up-down direction. The specific unit 333 notifies the information output unit 334 of the first difference vector (x1, y1) indicating the difference between the feature point coordinate F1 and the center coordinate C1.

図5(c)及び図5(d)は、撮像装置1が生成した撮像画像である。図5(c)は、撮像装置1の撮像範囲が調整される前に生成された第1撮像画像であり、図5(d)は、撮像装置1の撮像範囲が調整された後に生成された第2撮像画像である。特定部333は、第1撮像画像において、補正目標画像の特徴点座標F1の周辺の画像と類似する画像の領域を探索する。図5(c)の例において、特定部333は、第1撮像画像の左端付近の特徴点座標F2に、特徴点が存在することを特定する。 5 (c) and 5 (d) are captured images generated by the imaging device 1. FIG. 5C is a first captured image generated before the imaging range of the imaging device 1 is adjusted, and FIG. 5D is generated after the imaging range of the imaging device 1 is adjusted. This is the second captured image. In the first captured image, the specific unit 333 searches for an image region similar to the image around the feature point coordinates F1 of the correction target image. In the example of FIG. 5C, the identification unit 333 identifies that the feature point exists at the feature point coordinate F2 near the left end of the first captured image.

特徴点座標F2は、第1撮像画像の中心位置の座標(センター座標C2)に対して、左右方向にx2、上下方向にy2だけずれている。特定部333は、特徴点座標F2とセンター座標C2との差分を示す第2差分ベクトル(x2、y2)を情報出力部334に通知する。 The feature point coordinates F2 deviate from the coordinates of the center position of the first captured image (center coordinates C2) by x2 in the left-right direction and y2 in the up-down direction. The specific unit 333 notifies the information output unit 334 of the second difference vector (x2, y2) indicating the difference between the feature point coordinate F2 and the center coordinate C2.

情報出力部334は、特定部333から通知された第2差分ベクトルが第1差分ベクトルと等しくなるように撮像装置1の撮像範囲を調整するための情報を出力する。具体的には、情報出力部334は、第1差分ベクトルと第2差分ベクトルとの差分を示す情報を出力する。 The information output unit 334 outputs information for adjusting the imaging range of the imaging device 1 so that the second difference vector notified from the specific unit 333 becomes equal to the first difference vector. Specifically, the information output unit 334 outputs information indicating the difference between the first difference vector and the second difference vector.

図6は、情報出力部334が出力する情報を生成する方法を説明するための図である。横軸は、第1差分ベクトルの左右成分x1と第2差分ベクトルの左右成分x2との差分値Xであり、縦軸は、第1差分ベクトルの上下成分y1と第2差分ベクトルの上下成分y2との差分値Yである。情報出力部334は、差分値(X、Y)の座標に基づく情報を生成する。 FIG. 6 is a diagram for explaining a method of generating information output by the information output unit 334. The horizontal axis is the difference value X between the left and right components x1 of the first difference vector and the left and right components x2 of the second difference vector, and the vertical axis is the upper and lower components y1 of the first difference vector and the upper and lower components y2 of the second difference vector. The difference value Y from. The information output unit 334 generates information based on the coordinates of the difference values (X, Y).

情報出力部334は、差分値(X、Y)が、領域Rに含まれる場合、撮像装置1を左向きに調整することを指示する内容を含む音情報を生成する。例えば、情報出力部334は、「左へ10度移動してください」のように、移動するべき向き、及び移動するべき量を示す音声を含む音情報を生成する。 When the difference value (X, Y) is included in the area R, the information output unit 334 generates sound information including a content instructing the image pickup apparatus 1 to be adjusted to the left. For example, the information output unit 334 generates sound information including a voice indicating the direction to be moved and the amount to be moved, such as "Please move 10 degrees to the left".

情報出力部334は、差分値(X、Y)が、領域Uに含まれる場合、撮像装置1を下向きに調整することを指示する内容を含む音情報を生成する。情報出力部334は、(X、Y)が、領域Lに含まれる場合、撮像装置1を右向きに調整することを指示する内容を含む音情報を生成する。情報出力部334は、差分値(X、Y)が、領域Dに含まれる場合、撮像装置1を上向きに調整することを指示する内容を含む音情報を生成する。 When the difference value (X, Y) is included in the region U, the information output unit 334 generates sound information including a content instructing the image pickup apparatus 1 to be adjusted downward. When (X, Y) is included in the area L, the information output unit 334 generates sound information including a content instructing the image pickup apparatus 1 to be adjusted to the right. When the difference value (X, Y) is included in the area D, the information output unit 334 generates sound information including a content instructing the image pickup apparatus 1 to be adjusted upward.

情報出力部334は、移動するべき量の代わりに、目標画像領域の中心位置と撮像画像の中心位置との距離に応じて発生間隔が変化する電子音を含む音情報を生成してもよい。例えば、情報出力部334は、差分値(X、Y)が領域Rに含まれており、かつ目標画像領域の中心位置と撮像画像の中心位置との距離が第1距離である場合に「左へ、ピッ、ピッ、ピッ」と第1間隔(例えば1秒間隔)で発生する電子音を含む音情報を生成する。そして、情報出力部334は、目標画像領域の中心位置と撮像画像の中心位置との距離が第1距離よりも短い第2距離になると、「左へ、ピピピピピ」と第1間隔よりも短い第2間隔(例えば0.5秒間隔)で発生する電子音を含む音情報を生成する。情報出力部334は、目標画像領域の中心位置と撮像画像の中心位置との距離が所定の閾値以内になった場合、調整を終了してよい旨を示す音情報を生成する。 The information output unit 334 may generate sound information including an electronic sound whose generation interval changes according to the distance between the center position of the target image region and the center position of the captured image, instead of the amount to be moved. For example, the information output unit 334 "left" when the difference value (X, Y) is included in the region R and the distance between the center position of the target image region and the center position of the captured image is the first distance. Sound information including electronic sounds generated at the first interval (for example, 1 second interval) is generated. Then, when the distance between the center position of the target image region and the center position of the captured image becomes the second distance shorter than the first distance, the information output unit 334 says "to the left, pip pip pip" and is shorter than the first interval. Sound information including electronic sounds generated at two intervals (for example, 0.5 second intervals) is generated. The information output unit 334 generates sound information indicating that the adjustment may be completed when the distance between the center position of the target image area and the center position of the captured image is within a predetermined threshold value.

情報出力部334は、電子音の発生間隔を変化させる代わりに、目標画像領域の中心位置と撮像画像の中心位置との距離に応じて電子音の周波数を変化させてもよい。また、情報出力部334は、移動させるべき向きに対応する態様の電子音を発生させてもよい。このように、情報出力部334が、目標画像領域の中心位置と撮像画像の中心位置との距離に応じて変化する音の音情報を生成することにより、ユーザは、携帯端末2において音を聞きながら、撮像装置1の撮像範囲を調整することができる。 The information output unit 334 may change the frequency of the electronic sound according to the distance between the center position of the target image region and the center position of the captured image, instead of changing the generation interval of the electronic sound. Further, the information output unit 334 may generate an electronic sound in a mode corresponding to the direction to be moved. In this way, the information output unit 334 generates sound information of the sound that changes according to the distance between the center position of the target image area and the center position of the captured image, so that the user hears the sound on the mobile terminal 2. However, the imaging range of the imaging device 1 can be adjusted.

[作業支援システムSにおける処理シーケンス]
図7は、ユーザが撮像装置1の撮像範囲を調整する際の作業支援システムSにおける処理シーケンスの一例を示す図である。まず、携帯端末2は、ユーザの操作に基づいて目標画像を生成する(S11)。携帯端末2は、生成した目標画像をサーバ3に送信する。
[Processing sequence in work support system S]
FIG. 7 is a diagram showing an example of a processing sequence in the work support system S when the user adjusts the imaging range of the imaging device 1. First, the mobile terminal 2 generates a target image based on the user's operation (S11). The mobile terminal 2 transmits the generated target image to the server 3.

サーバ3の目標画像取得部332が目標画像を取得すると(S12)、特定部333は、高さ情報に基づいて目標画像を補正することにより補正目標画像を生成する(S13)。特定部333は、補正目標画像に含まれている特徴点を抽出し、特徴点の座標と中心位置の座標との差分である第1差分ベクトルを算出する(S14)。特定部333は、算出した第1差分ベクトルを記憶部32に記憶させる。 When the target image acquisition unit 332 of the server 3 acquires the target image (S12), the specific unit 333 generates the correction target image by correcting the target image based on the height information (S13). The specific unit 333 extracts the feature points included in the correction target image, and calculates the first difference vector which is the difference between the coordinates of the feature points and the coordinates of the center position (S14). The specific unit 333 stores the calculated first difference vector in the storage unit 32.

続いて、サーバ3の情報出力部334は、撮像装置1に対して、撮像画像の生成を開始する指示を送信する。撮像装置1は、撮像画像の生成を開始する指示を受信すると、撮像画像の生成を開始し(S15)、生成した撮像画像を順次サーバ3に送信する。サーバ3の撮像画像取得部331が撮像画像を取得すると(S16)、特定部333は、補正目標画像に含まれていた特徴点の画像と類似する目標画像領域の中心位置を特定し、特定した中心位置の座標と撮像画像の中心位置の座標との差分である第2差分ベクトルを算出する(S17)。 Subsequently, the information output unit 334 of the server 3 transmits an instruction to start the generation of the captured image to the imaging device 1. Upon receiving the instruction to start the generation of the captured image, the imaging device 1 starts generating the captured image (S15), and sequentially transmits the generated captured images to the server 3. When the captured image acquisition unit 331 of the server 3 acquires the captured image (S16), the specific unit 333 identifies and identifies the center position of the target image region similar to the image of the feature point included in the correction target image. The second difference vector, which is the difference between the coordinates of the center position and the coordinates of the center position of the captured image, is calculated (S17).

続いて、情報出力部334は、図6を参照して説明したように、第1差分ベクトルと第2差分ベクトルとの差分値に基づいて、撮像装置1の画角を調整するための音情報を生成し(S18)、携帯端末2に送信する。携帯端末2は、受信した音情報に基づく音を出力する(S19)。 Subsequently, as described with reference to FIG. 6, the information output unit 334 uses sound information for adjusting the angle of view of the imaging device 1 based on the difference value between the first difference vector and the second difference vector. Is generated (S18) and transmitted to the mobile terminal 2. The mobile terminal 2 outputs a sound based on the received sound information (S19).

[変形例]
以上の説明においては、目標画像取得部332が複数の目標画像を取得することを想定していなかったが、目標画像取得部332は、異なる位置で撮像された複数の目標画像を取得してもよい。この場合、目標画像取得部332は、複数の目標画像それぞれに関連付けて、目標画像が撮像された位置を示す位置情報を取得する。また、撮像装置1は、自身の位置を示す位置情報を関連づけた撮像画像をサーバ3に送信する。
[Modification example]
In the above description, it is not assumed that the target image acquisition unit 332 acquires a plurality of target images, but the target image acquisition unit 332 may acquire a plurality of target images captured at different positions. Good. In this case, the target image acquisition unit 332 acquires position information indicating the position where the target image is captured in association with each of the plurality of target images. Further, the image pickup device 1 transmits a captured image associated with the position information indicating its own position to the server 3.

特定部333は、撮像画像取得部331が取得した撮像画像に関連付けられた位置情報に最も近い位置情報に関連付けられた目標画像を選択し、撮像画像において、選択した目標画像の少なくとも一部の領域の画像と類似する画像領域の位置を特定する。このようにすることで、複数の撮像装置1を設置する必要がある場合に、ユーザが、設置する場所に対応する目標画像を選択する必要がないので、作業効率を向上させることができる。 The specific unit 333 selects the target image associated with the position information closest to the position information associated with the captured image acquired by the captured image acquisition unit 331, and in the captured image, at least a part of the selected target image region. Identify the location of an image area similar to the image in. By doing so, when it is necessary to install a plurality of image pickup devices 1, it is not necessary for the user to select a target image corresponding to the installation location, so that the work efficiency can be improved.

[第1の実施形態の作業支援システムSによる効果]
以上説明したように、作業支援システムSにおいては、サーバ3の目標画像取得部332が、ユーザ又は他の人が携帯端末2又は他の端末を用いて撮影することにより生成された目標画像を取得し、特定部333が、撮像画像における、目標画像と類似する画像領域の位置を特定する。そして、情報出力部334は、特定部333が特定した位置と、撮像画像の中心位置との関係に基づく音情報を出力する。このようにすることで、ユーザは、携帯端末2から出力される音を聞きながら、一人で適切な向きに撮像装置1の撮像範囲を調整することができる。
[Effect of the work support system S of the first embodiment]
As described above, in the work support system S, the target image acquisition unit 332 of the server 3 acquires the target image generated by the user or another person taking a picture using the mobile terminal 2 or another terminal. Then, the identification unit 333 specifies the position of the image region similar to the target image in the captured image. Then, the information output unit 334 outputs sound information based on the relationship between the position specified by the specific unit 333 and the center position of the captured image. By doing so, the user can adjust the imaging range of the imaging device 1 in an appropriate direction by himself / herself while listening to the sound output from the mobile terminal 2.

目標画像は、任意の人が予め作成することができるので、例えば、撮像装置1を設置する事業所の人が予め準備することもできる。したがって、撮像装置1を設置する事業所の人は、撮像装置1の設置作業に同行することなく、所望の範囲を監視できるように撮像装置1を設置してもらうことが可能になる。 Since the target image can be created in advance by any person, for example, a person in the business establishment where the image pickup apparatus 1 is installed can prepare the target image in advance. Therefore, the person in the business establishment who installs the image pickup device 1 can have the image pickup device 1 installed so that the desired range can be monitored without accompanying the installation work of the image pickup device 1.

<第2の実施形態>
第1の実施形態においては、撮像装置1の撮像範囲を調整するために、ユーザが撮像装置1の向きを調整する場合について説明した。第2の実施形態は、撮像装置1が撮像範囲を自身で調整可能なカメラである点で第1の実施形態と異なる。撮像装置1は、外部から入力される制御情報に基づいて、左右方向にレンズの向きを移動するパンの動作、上下方向にレンズの向きを移動するチルトの動作、及び撮像画像を拡大・縮小するズームの動作を行うことができる。
<Second embodiment>
In the first embodiment, a case where the user adjusts the orientation of the image pickup device 1 in order to adjust the image pickup range of the image pickup device 1 has been described. The second embodiment is different from the first embodiment in that the imaging device 1 is a camera whose imaging range can be adjusted by itself. The image pickup device 1 enlarges / reduces the pan operation of moving the lens direction in the left-right direction, the tilt operation of moving the lens direction in the up-down direction, and the captured image based on the control information input from the outside. The zoom operation can be performed.

図8は、撮像装置1の構成を示す図である。撮像装置1は、撮像部11と、駆動部12と、通信部13と、記憶部14と、制御部15とを有する。 FIG. 8 is a diagram showing the configuration of the image pickup apparatus 1. The image pickup device 1 includes an image pickup unit 11, a drive unit 12, a communication unit 13, a storage unit 14, and a control unit 15.

撮像部11は、レンズを含む光学系部品と、レンズを介して入射した光を電気信号に変換する撮像素子とを有する。駆動部12は、制御部15の制御に基づいて撮像部11の光軸の向きとズーム率を変化させるアクチュエータを有する。通信部13は、携帯端末2又はサーバ3との間で情報を送受信するための無線又は有線の通信インターフェースである。通信部13は、例えば、サーバ3から目標画像を受信する。 The image pickup unit 11 includes an optical system component including a lens and an image pickup element that converts light incident through the lens into an electric signal. The drive unit 12 has an actuator that changes the direction of the optical axis and the zoom rate of the image pickup unit 11 based on the control of the control unit 15. The communication unit 13 is a wireless or wired communication interface for transmitting and receiving information to and from the mobile terminal 2 or the server 3. The communication unit 13 receives, for example, a target image from the server 3.

記憶部14は、ROM及びRAMを有しており、制御部15が実行するプログラムを記憶している。また、記憶部14は、制御部15の制御に基づいて、撮像部11が生成した撮像画像を一時的に記憶する。 The storage unit 14 has a ROM and a RAM, and stores a program executed by the control unit 15. Further, the storage unit 14 temporarily stores the captured image generated by the imaging unit 11 based on the control of the control unit 15.

制御部15は、例えばCPUである。制御部15は、記憶部14に記憶されたプログラムを実行することにより、駆動部12を制御して撮像部11の光軸の向きを変化させたり、撮像部11に撮像画像を生成させたりする。 The control unit 15 is, for example, a CPU. By executing the program stored in the storage unit 14, the control unit 15 controls the drive unit 12 to change the direction of the optical axis of the image pickup unit 11 or causes the image pickup unit 11 to generate an image. ..

図9は、撮像装置1の動作について説明するための図である。図9は、撮像装置1が光軸の向きを変化させることができる撮像可能範囲Aを示している。撮像装置1は、左右方向及び上下方向に、撮像範囲の左右方向の長さ及び上下方向の長さよりも大きな長さにわたってパン又はチルトすることができる。制御部15は、サーバ3から目標画像を受信すると、駆動部12を制御することにより、図9に示すように、撮像範囲を最も左上の初期位置に設定する。 FIG. 9 is a diagram for explaining the operation of the image pickup apparatus 1. FIG. 9 shows an image pickup range A in which the image pickup apparatus 1 can change the direction of the optical axis. The imaging device 1 can pan or tilt in the horizontal and vertical directions over a length larger than the horizontal length and the vertical length of the imaging range. When the control unit 15 receives the target image from the server 3, the control unit 15 controls the drive unit 12 to set the imaging range to the upper left initial position as shown in FIG.

その後、制御部15は、駆動部12に右向きにパンさせることで撮像範囲を右向きに移動させる。制御部15は、撮像範囲が右端に到達すると、駆動部12に下向きにチルトさせることで撮像範囲を下向きに移動させる。制御部15は、撮像範囲を下向きに移動させた位置で、駆動部12をパンさせることで、水平方向に撮像範囲を移動させる。 After that, the control unit 15 causes the drive unit 12 to pan to the right to move the imaging range to the right. When the image pickup range reaches the right end, the control unit 15 tilts the drive unit 12 downward to move the image pickup range downward. The control unit 15 moves the image pickup range in the horizontal direction by panning the drive unit 12 at a position where the image pickup range is moved downward.

制御部15は、レンズの向きを移動させられる最小単位ごとに撮像範囲を移動させてもよいが、撮像範囲の幅ごとに撮像範囲を移動させてもよい。制御部15は、撮像範囲を移動させるたびに撮像部11に撮像画像を生成させ、生成された撮像画像をサーバ3に送信する。制御部15は、サーバ3から、撮像部11の光軸の向きを移動するための制御情報を受信すると、受信した制御情報に従って駆動部12を制御して撮像部11の光軸の向きを変更することにより、撮像範囲を変更する。 The control unit 15 may move the imaging range for each minimum unit in which the direction of the lens can be moved, but may also move the imaging range for each width of the imaging range. The control unit 15 causes the imaging unit 11 to generate an image to be captured each time the imaging range is moved, and transmits the generated image to the server 3. When the control unit 15 receives control information for moving the direction of the optical axis of the image pickup unit 11 from the server 3, the control unit 15 controls the drive unit 12 according to the received control information to change the direction of the optical axis of the image pickup unit 11. By doing so, the imaging range is changed.

図10及び図11は、第2の実施形態の作業支援システムSにおいて撮像装置1の撮像範囲を調整する際の処理シーケンスの一例を示す図である。ステップS11からステップS14までは、図7に示した第1の実施形態の処理シーケンスと同じである。 10 and 11 are diagrams showing an example of a processing sequence when adjusting the imaging range of the imaging device 1 in the work support system S of the second embodiment. Steps S11 to S14 are the same as the processing sequence of the first embodiment shown in FIG. 7.

サーバ3の情報出力部334は、ステップS14において第1差分ベクトルを算出すると、撮像装置1に対して、撮像画像の生成を開始する指示を送信する。撮像装置1の制御部15は、指示を受信すると、駆動部12を制御して、撮像範囲を初期位置に移動させる(S21)。制御部15は、撮像部11に撮像画像を生成させ(S22)、通信部13を介して撮像画像をサーバ3に送信する。 When the information output unit 334 of the server 3 calculates the first difference vector in step S14, the information output unit 334 transmits an instruction to start the generation of the captured image to the imaging device 1. Upon receiving the instruction, the control unit 15 of the image pickup apparatus 1 controls the drive unit 12 to move the image pickup range to the initial position (S21). The control unit 15 causes the imaging unit 11 to generate an captured image (S22), and transmits the captured image to the server 3 via the communication unit 13.

サーバ3の特定部333は、撮像画像を取得すると(S23)、撮像画像内に、ステップS13において生成した補正目標画像に含まれていた特徴点と同じ特徴点が含まれているか否かを判定する(S24)。情報出力部334は、撮像画像内に特徴点が含まれていないと特定部333が判定した場合、撮像装置1に、撮像範囲を変更する指示を含む制御情報を送信する。撮像装置1の制御部15は、受信した指示に基づいて駆動部12を制御して撮像範囲を変更し(S25)、ステップS22に処理を戻す。 When the identification unit 333 of the server 3 acquires the captured image (S23), it determines whether or not the captured image contains the same feature points as those included in the correction target image generated in step S13. (S24). When the specific unit 333 determines that the feature points are not included in the captured image, the information output unit 334 transmits control information including an instruction to change the imaging range to the imaging device 1. The control unit 15 of the image pickup apparatus 1 controls the drive unit 12 based on the received instruction to change the image pickup range (S25), and returns the process to step S22.

特定部333が、ステップS24において撮像画像内に特徴点が含まれると判定した場合、サーバ3は、図11に示す処理に移る。特定部333は、撮像画像内に検出した特徴点の位置と撮像画像の中心位置との間の第2差分ベクトルを算出し、第2差分ベクトルを情報出力部334に通知する(S26)。情報出力部334は、特定部333から通知された第2差分ベクトルが第1差分ベクトルと等しくなるように撮像装置1の撮像範囲を調整するための制御情報を生成し(S27)、生成した制御情報を撮像装置1に送信する。情報出力部334は、例えば、第1差分ベクトルが(500、200)であり、第2差分ベクトルが(200、100)である場合、撮像範囲を右向きに300画素分、下向きに100画素分移動させる指示を含む制御情報を撮像装置1に送信する。 When the specific unit 333 determines in step S24 that the feature points are included in the captured image, the server 3 moves to the process shown in FIG. The specific unit 333 calculates a second difference vector between the position of the feature point detected in the captured image and the center position of the captured image, and notifies the information output unit 334 of the second difference vector (S26). The information output unit 334 generates control information for adjusting the imaging range of the image pickup apparatus 1 so that the second difference vector notified from the specific unit 333 becomes equal to the first difference vector (S27), and the generated control Information is transmitted to the image pickup apparatus 1. For example, when the first difference vector is (500, 200) and the second difference vector is (200, 100), the information output unit 334 moves the imaging range by 300 pixels to the right and 100 pixels to the bottom. The control information including the instruction to cause the image is transmitted to the image pickup apparatus 1.

撮像装置1の制御部15は、受信した制御情報に基づいて駆動部12を制御することにより、撮像範囲を変更する(S28)。これにより、撮像範囲の中心位置が目標画像の中心位置と等しい状態になる。制御部15は、調整が終了した旨をサーバ3に通知し、サーバ3は、携帯端末2に対して、調整が終了した旨を通知する。 The control unit 15 of the image pickup apparatus 1 changes the image pickup range by controlling the drive unit 12 based on the received control information (S28). As a result, the center position of the imaging range becomes equal to the center position of the target image. The control unit 15 notifies the server 3 that the adjustment has been completed, and the server 3 notifies the mobile terminal 2 that the adjustment has been completed.

なお、撮像装置1の制御部15は、サーバ3から受信した制御情報に基づいてズームの調整を行ってもよい。例えば、情報出力部334は、撮像装置1が生成した撮像画像に目標画像が含まれている場合に、撮像画像の撮像範囲が目標画像の撮像範囲と等しくなるようにズーム率を変更するための制御情報を撮像装置1に対して出力する。このようにすることで、撮像装置1は、撮像範囲の中心位置を目標画像の中心位置に合わせるだけでなく、撮像する範囲も目標画像と一致させることができるので、目標画像を撮った人の要望により近い範囲を撮像することが可能になる。 The control unit 15 of the image pickup apparatus 1 may adjust the zoom based on the control information received from the server 3. For example, the information output unit 334 changes the zoom ratio so that the imaging range of the captured image becomes equal to the imaging range of the target image when the captured image generated by the imaging device 1 includes the target image. The control information is output to the image pickup apparatus 1. By doing so, the imaging device 1 can not only align the center position of the imaging range with the center position of the target image, but also match the imaging range with the target image. It becomes possible to image a range closer to the request.

[第2の実施形態による効果]
以上説明したように、第2の実施形態の作業支援システムSにおいては、撮像装置1が撮像範囲を変化させる間に生成した撮像画像をサーバ3に送信する。そして、サーバ3の特定部333は、撮像画像における、目標画像と類似する画像領域の位置を特定する。情報出力部334は、特定部333が特定した位置と、撮像画像の中心位置との関係に基づく制御情報を撮像装置1へと出力する。このようにすることで、ユーザが撮像装置1の撮像範囲にしたいと考える範囲を撮影して目標画像を生成することにより、撮像装置1の撮像範囲を容易に調整することが可能になる。
[Effect of the second embodiment]
As described above, in the work support system S of the second embodiment, the captured image generated while the imaging device 1 changes the imaging range is transmitted to the server 3. Then, the identification unit 333 of the server 3 specifies the position of the image region similar to the target image in the captured image. The information output unit 334 outputs control information based on the relationship between the position specified by the specific unit 333 and the center position of the captured image to the image pickup apparatus 1. By doing so, it is possible to easily adjust the imaging range of the imaging device 1 by capturing a range that the user wants to be the imaging range of the imaging device 1 and generating a target image.

<第3の実施形態>
第1の実施形態の作業支援システムSにおいては、サーバ3が音情報又は制御情報を生成するものとしたが、第3の実施形態の作業支援システムSにおいては、携帯端末2において音情報を生成する点で異なる。例えば、携帯端末2のCPUがプログラムを実行することにより、第1の実施形態のサーバ3における撮像画像取得部331、目標画像取得部332、特定部333及び情報出力部334と同等の機能を実行する。
<Third embodiment>
In the work support system S of the first embodiment, the server 3 generates sound information or control information, but in the work support system S of the third embodiment, the mobile terminal 2 generates sound information. It differs in that it does. For example, when the CPU of the mobile terminal 2 executes the program, it executes the same functions as the captured image acquisition unit 331, the target image acquisition unit 332, the specific unit 333, and the information output unit 334 in the server 3 of the first embodiment. To do.

図12は、第3の実施形態の作業支援システムSにおいて撮像装置1の撮像範囲を調整する際の処理シーケンスの一例を示す図である。携帯端末2は、ユーザの操作に応じて目標画像を生成する(S11)。携帯端末2は、携帯端末2が目標画像を撮影した時点での携帯端末2の高さ、及び撮像装置1が設置されている高さに基づいて目標画像を補正して補正目標画像を生成する(S31)。続いて、携帯端末2は、目標画像内の特徴点と中心位置との差分である第1差分ベクトルを算出する(S32)。 FIG. 12 is a diagram showing an example of a processing sequence when adjusting the imaging range of the imaging device 1 in the work support system S of the third embodiment. The mobile terminal 2 generates a target image according to the operation of the user (S11). The mobile terminal 2 corrects the target image based on the height of the mobile terminal 2 at the time when the mobile terminal 2 captures the target image and the height at which the image pickup device 1 is installed to generate a corrected target image. (S31). Subsequently, the mobile terminal 2 calculates the first difference vector, which is the difference between the feature point and the center position in the target image (S32).

次に、撮像装置1は撮像画像を生成し(S33)、携帯端末2は、撮像装置1が生成した撮像画像を取得する。携帯端末2は、取得した撮像画像において、目標画像内の特徴点と類似する画像の位置を特定することにより、撮像画像の中心位置と特徴点と類似する画像の位置との差分である第2差分ベクトルを算出する(S34)。携帯端末2は、第1差分ベクトルと第2差分ベクトルとの関係に基づいて、音情報を生成し(S35)、生成した音情報に基づく音を出力する(S36)。携帯端末2は、ユーザが撮像装置1の撮像範囲の調整作業を終了してプログラムの実行を停止させるまでの間、撮像装置1から送信される撮像画像に基づいて、ステップS34からステップS36までの処理を繰り返す。 Next, the image pickup device 1 generates a captured image (S33), and the mobile terminal 2 acquires the captured image generated by the image pickup device 1. The mobile terminal 2 is a second difference between the center position of the captured image and the position of the image similar to the feature point by specifying the position of the image similar to the feature point in the acquired image. The difference vector is calculated (S34). The mobile terminal 2 generates sound information based on the relationship between the first difference vector and the second difference vector (S35), and outputs the sound based on the generated sound information (S36). From step S34 to step S36, the mobile terminal 2 is based on the captured image transmitted from the imaging device 1 until the user finishes the adjustment work of the imaging range of the imaging device 1 and stops the execution of the program. Repeat the process.

[第3の実施形態の作業支援システムSによる効果]
以上説明したように、第3の実施形態の作業支援システムSによれば、サーバ3を用いることなく、撮像装置1及び携帯端末2を用いることにより、一人のユーザが撮像装置1の撮像範囲を容易に調整することができる。
[Effect of the work support system S of the third embodiment]
As described above, according to the work support system S of the third embodiment, by using the image pickup device 1 and the mobile terminal 2 without using the server 3, one user can set the image pickup range of the image pickup device 1. It can be easily adjusted.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist thereof. is there. For example, the specific embodiment of the distribution / integration of the device is not limited to the above embodiment, and all or a part thereof may be functionally or physically distributed / integrated in an arbitrary unit. Can be done. Also included in the embodiments of the present invention are new embodiments resulting from any combination of the plurality of embodiments. The effect of the new embodiment produced by the combination has the effect of the original embodiment together.

例えば、以上の説明においては、携帯端末2又はサーバ3が音情報又は制御情報を出力する場合について説明したが、撮像装置1が目標画像を取得し、撮像装置1のCPUがプログラムを実行することにより、音情報を生成したり、自身のレンズの向きを制御するための制御情報を生成したりしてもよい。すなわち、本発明の情報出力装置は、サーバ3に限らず、撮像装置1又は携帯端末2が情報出力装置の全ての構成又は一部の構成を含んでいてもよい。 For example, in the above description, the case where the mobile terminal 2 or the server 3 outputs sound information or control information has been described, but the image pickup device 1 acquires the target image and the CPU of the image pickup device 1 executes the program. May generate sound information or control information for controlling the orientation of its own lens. That is, the information output device of the present invention is not limited to the server 3, and the image pickup device 1 or the mobile terminal 2 may include all or a part of the configuration of the information output device.

1 撮像装置
2 携帯端末
3 サーバ
11 撮像部
12 駆動部
13 通信部
14 記憶部
15 制御部
31 通信部
32 記憶部
33 制御部
331 撮像画像取得部
332 目標画像取得部
333 特定部
334 情報出力部
1 Imaging device 2 Mobile terminal 3 Server 11 Imaging unit 12 Drive unit 13 Communication unit 14 Storage unit 15 Control unit 31 Communication unit 32 Storage unit 33 Control unit 331 Captured image acquisition unit 332 Target image acquisition unit 333 Specific unit 334 Information output unit

Claims (8)

撮像装置が撮像する範囲の目標範囲の画像である目標画像を取得する目標画像取得部と、
前記撮像装置が撮像した撮像画像を取得する撮像画像取得部と、
前記撮像画像における、前記目標画像の少なくとも一部の領域の画像と類似する画像領域の位置を特定する特定部と、
前記特定部が特定した位置と、前記撮像画像の中心位置との関係に基づく情報を出力する情報出力部と、
を有する情報出力装置。
A target image acquisition unit that acquires a target image, which is an image of the target range of the range captured by the imaging device,
An image acquisition unit that acquires an image captured by the image pickup device, and an image acquisition unit.
A specific portion of the captured image that specifies the position of an image region similar to the image of at least a part of the target image.
An information output unit that outputs information based on the relationship between the position specified by the specific unit and the center position of the captured image.
Information output device with.
前記目標画像取得部は、前記撮像装置に撮像させる撮像画像の位置又は領域を特定するための領域指定情報をさらに取得し、
前記特定部は、前記撮像画像における前記領域指定情報に対応する位置を、前記目標画像の少なくとも一部の領域の画像と類似する画像領域の位置として特定する、
請求項1に記載の情報出力装置。
The target image acquisition unit further acquires area designation information for specifying the position or area of the captured image to be imaged by the image pickup device.
The specific unit specifies a position corresponding to the area designation information in the captured image as a position of an image region similar to an image of at least a part of the target image.
The information output device according to claim 1.
前記目標画像取得部は、前記目標画像が撮影された高さを示す高さ情報をさらに取得し、
前記特定部は、前記高さ情報に基づいて前記目標画像を補正した補正目標画像の少なくとも一部の領域の画像の位置を特定する、
請求項1又は2に記載の情報出力装置。
The target image acquisition unit further acquires height information indicating the height at which the target image was captured.
The specific portion specifies the position of an image in at least a part of a corrected target image obtained by correcting the target image based on the height information.
The information output device according to claim 1 or 2.
前記特定部は、前記目標画像に含まれている一以上の特徴点を抽出し、前記目標画像の少なくとも一部の領域の画像の位置として、前記撮像画像における前記特徴点と同一の特徴を有する一以上の画素の位置を特定する、
請求項1から3のいずれか一項に記載の情報出力装置。
The specific unit extracts one or more feature points included in the target image, and has the same features as the feature points in the captured image as the position of the image in at least a part of the target image. Identify the position of one or more pixels,
The information output device according to any one of claims 1 to 3.
前記情報出力部は、前記特定部が特定した位置と前記撮像画像の中心位置との関係に基づく音の情報を出力する、
請求項1から4のいずれか一項に記載の情報出力装置。
The information output unit outputs sound information based on the relationship between the position specified by the specific unit and the center position of the captured image.
The information output device according to any one of claims 1 to 4.
前記情報出力部は、前記特定部が特定した位置と前記撮像画像の中心位置との関係に基づいて、前記撮像装置の位置を制御するための制御情報を出力する、
請求項1から4のいずれか一項に記載の情報出力装置。
The information output unit outputs control information for controlling the position of the image pickup device based on the relationship between the position specified by the specific unit and the center position of the captured image.
The information output device according to any one of claims 1 to 4.
コンピュータを、
撮像装置が撮像する範囲の目標範囲の画像である目標画像を取得する目標画像取得部、
前記撮像装置が撮像した撮像画像を取得する撮像画像取得部、
前記撮像画像における、前記目標画像の少なくとも一部の領域の画像と類似する画像領域の位置を特定する特定部、及び
前記特定部が特定した位置と、前記撮像画像の中心位置との関係に基づく情報を出力する情報出力部、
として機能させるためのプログラム。
Computer,
Target image acquisition unit that acquires a target image, which is an image of the target range of the range captured by the image pickup device.
An image capture image acquisition unit that acquires an image captured by the image pickup device,
Based on the specific portion that specifies the position of an image region similar to the image of at least a part of the target image in the captured image, and the relationship between the position specified by the specific portion and the center position of the captured image. Information output section that outputs information,
A program to function as.
コンピュータが実行する、
撮像装置が撮像する範囲の目標範囲の画像である目標画像を取得するステップと、
前記撮像装置が撮像した撮像画像を取得するステップと、
前記撮像画像における、前記目標画像の少なくとも一部の領域の画像と類似する画像領域の位置を特定するステップと、
特定した位置と、前記撮像画像の中心位置との関係に基づく情報を出力するステップと、
を有する情報出力方法。

Computer runs,
The step of acquiring the target image, which is the image of the target range of the range captured by the image pickup device, and
The step of acquiring the captured image captured by the imaging device, and
A step of identifying the position of an image region similar to the image of at least a part of the target image in the captured image, and
A step of outputting information based on the relationship between the specified position and the center position of the captured image, and
Information output method having.

JP2017061172A 2017-03-27 2017-03-27 Information output device, program and information output method Active JP6852500B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017061172A JP6852500B2 (en) 2017-03-27 2017-03-27 Information output device, program and information output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017061172A JP6852500B2 (en) 2017-03-27 2017-03-27 Information output device, program and information output method

Publications (2)

Publication Number Publication Date
JP2018163573A JP2018163573A (en) 2018-10-18
JP6852500B2 true JP6852500B2 (en) 2021-03-31

Family

ID=63860145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017061172A Active JP6852500B2 (en) 2017-03-27 2017-03-27 Information output device, program and information output method

Country Status (1)

Country Link
JP (1) JP6852500B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5309499B2 (en) * 2007-08-20 2013-10-09 三菱電機株式会社 Security camera device in elevator
JP2011097284A (en) * 2009-10-28 2011-05-12 Panasonic Corp Monitoring device
JP6071866B2 (en) * 2013-12-18 2017-02-01 キヤノン株式会社 Display control device, display device, imaging system, display control method, and program

Also Published As

Publication number Publication date
JP2018163573A (en) 2018-10-18

Similar Documents

Publication Publication Date Title
US10250794B2 (en) Capturing an image using multi-camera automatic focus
US20150334286A1 (en) Wireless video camera
JP6374536B2 (en) Tracking system, terminal device, camera device, tracking shooting method and program
US9759994B1 (en) Automatic projection focusing
EP3062286A1 (en) Optical distortion compensation
CN111698465B (en) Method and device for adjusting monitoring coverage area, electronic equipment and storage medium
US10250795B2 (en) Identifying a focus point in a scene utilizing a plurality of cameras
CN109104562B (en) Information processing apparatus, information processing method, and recording medium
KR20180129667A (en) Display control apparatus, display control method, and storage medium
JP2015204595A (en) Imaging apparatus, camera, remote control apparatus, imaging method, and program
JP6141137B2 (en) REMOTE CONTROL DEVICE AND ITS CONTROL METHOD, IMAGING DEVICE AND ITS CONTROL METHOD, SYSTEM, AND PROGRAM
JP6283329B2 (en) Augmented Reality Object Recognition Device
JP5200800B2 (en) Imaging apparatus and imaging system
JP6231757B2 (en) Imaging apparatus, information processing apparatus, control method therefor, and program
JP6852500B2 (en) Information output device, program and information output method
US20200186716A1 (en) Imaging device and method for correcting shake of captured image
JP6819403B2 (en) Information output device, program and information output method
KR101670247B1 (en) System for magnifying-moving object using one click of cctv real-time image and method therefor
KR20110090623A (en) Home network terminal being capable of tracking face and method thereof
JP7356293B2 (en) Electronic equipment and its control method
JP2019161483A (en) Portable terminal and image cut-out method
JP6819404B2 (en) Shooting control device and program
US9883103B2 (en) Imaging control apparatus and method for generating a display image, and storage medium
JP2020017904A (en) Control arrangement, method and program of imaging apparatus
JP2018207360A (en) Image processing device, work support system, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210222

R150 Certificate of patent or registration of utility model

Ref document number: 6852500

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111