JP2014143619A - Imaging device, remote operation terminal, camera system, control method and program for imaging device, and control method and program for remote operation terminal - Google Patents

Imaging device, remote operation terminal, camera system, control method and program for imaging device, and control method and program for remote operation terminal Download PDF

Info

Publication number
JP2014143619A
JP2014143619A JP2013011574A JP2013011574A JP2014143619A JP 2014143619 A JP2014143619 A JP 2014143619A JP 2013011574 A JP2013011574 A JP 2013011574A JP 2013011574 A JP2013011574 A JP 2013011574A JP 2014143619 A JP2014143619 A JP 2014143619A
Authority
JP
Japan
Prior art keywords
image signal
image
subject
remote operation
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013011574A
Other languages
Japanese (ja)
Other versions
JP6207162B2 (en
Inventor
hayato Nakamura
隼 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013011574A priority Critical patent/JP6207162B2/en
Priority to EP14150839.0A priority patent/EP2757772A3/en
Priority to EP22177591.9A priority patent/EP4093019A1/en
Priority to US14/155,427 priority patent/US20140198220A1/en
Priority to CN201710343051.8A priority patent/CN107277345B/en
Priority to CN201410023015.XA priority patent/CN103945112B/en
Publication of JP2014143619A publication Critical patent/JP2014143619A/en
Application granted granted Critical
Publication of JP6207162B2 publication Critical patent/JP6207162B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To make a subject remotely designated by an operator be more accurately followed regardless of a communication time lag.SOLUTION: An imaging device externally controlled by a remote operation terminal comprises: communication means for granting grant information to an image signal generated by imaging means to transmit it to the remote operation terminal, receiving position information on a subject designated when the subject is designated in an image that is being displayed on a display unit of the remote operation terminal, and receiving the grant information from the remote operation terminal when the image signal is displayed on the display unit; holding means for holding the image signal generated by the imaging means on the basis of communication delay time calculated on the basis of the received grant information, for a predetermined period; selection means for selecting an image signal held in the holding means on the basis of communication delay time calculated when receiving the position information; and identification means for identifying a region for following the subject from a present image signal on the basis of the selected image signal and received position information.

Description

本発明は、任意の被写体に対する追従機能を備えた撮像装置と、該撮像装置を外部から制御する遠隔操作端末からなるシステムに関するものである。   The present invention relates to a system including an imaging apparatus having a tracking function for an arbitrary subject and a remote operation terminal that controls the imaging apparatus from the outside.

特許文献1には、カメラ2と、該カメラ2を外部から制御可能なコントローラ1とからなるカメラシステムについて開示されている。このカメラシステムでは、操作者がコントローラ1を操作することで、カメラ2から送信される撮影画像データを観察しながら、フォーカス位置を所望の被写体の位置に設定(指定)することができる。該設定がなされたとき、コントローラ1はカメラ2に対し、設定された被写体の位置に関する情報を送信することで、カメラ2は受信した位置情報を基に所望の被写体の位置においてAF処理等を実行することができる。   Patent Document 1 discloses a camera system including a camera 2 and a controller 1 that can control the camera 2 from the outside. In this camera system, when the operator operates the controller 1, the focus position can be set (designated) to a desired subject position while observing captured image data transmitted from the camera 2. When the setting is made, the controller 1 transmits information related to the set subject position to the camera 2, so that the camera 2 executes AF processing or the like at the desired subject position based on the received position information. can do.

また、デジタルカメラ等の撮像装置の中には、撮像画面内の任意の被写体を選択することで、選択した被写体を自動的に追従できるものがある。   Some imaging devices such as digital cameras can automatically follow a selected subject by selecting an arbitrary subject within the imaging screen.

特開2009−273033号公報JP 2009-273033 A

カメラ2に対してコントローラ1から制御を行う上記システムでは、通信によってデータを送受信する時間がかかるため、通信のタイムラグが発生してしまう。例えば、カメラ2が撮像した画像をコントローラ1で表示する際、撮影画像データを通信する時間がかかるため、コントローラ1で撮影画像を表示するまでに時間がかかってしまう。この通信のタイムラグによって、操作者がコントローラ1で撮影画像を確認する際、撮像された時点から遅れて画像が表示されてしまう。また、コントローラ1からカメラ2に対して制御指示を行う際も然りで、通信のタイムラグによってコントローラ1側で所望の被写体の位置を指定した時点から遅れて、カメラ2側で該位置に関する情報が受信されることになる。   In the above system that controls the camera 2 from the controller 1, it takes time to transmit and receive data by communication, which causes a communication time lag. For example, when an image captured by the camera 2 is displayed on the controller 1, it takes time to communicate captured image data, and thus it takes time to display a captured image on the controller 1. Due to this communication time lag, when the operator confirms the captured image with the controller 1, the image is displayed with a delay from the time when the image was captured. Similarly, when the controller 1 issues a control instruction to the camera 2, information on the position on the camera 2 side is delayed from the time when the desired subject position is designated on the controller 1 side due to the communication time lag. Will be received.

このように、上記システムでは通信のタイムラグが発生するので、上記システムを使って例えば移動している被写体に対して追従制御を行いたい場合、以下に示すような不具合が生じる虞がある。例えば、図7に示されるように、操作者がコントローラ1で所望の被写体(動物)の位置を指定・送信したとき、カメラ2が受信する時点では操作者が指定した位置に当該被写体がいない可能性がある。特に被写体の移動量が大きい場合、または通信タイムラグが長い場合に、この問題が顕著になる。そして、操作者が追従したい被写体がすでに指定した位置にいない場合、その時点で指定された位置にたまたま存在する被写体に対して追従を行ってしまうため、操作者の意図と異なる焦点や露出の調節を行ってしまう懸念がある。また、そのような場合、被写体をより正確に追従するためには、コントローラ1側で追従したい被写体の動作を先読みすると同時に、通信タイムラグの長さを考慮して被写体を選択するという配慮をしなければならない。   As described above, since a communication time lag occurs in the above system, for example, when it is desired to perform follow-up control on a moving subject using the system, there is a possibility that the following problems may occur. For example, as shown in FIG. 7, when the operator designates and transmits the position of a desired subject (animal) with the controller 1, there is no possibility that the subject is located at the position designated by the operator when the camera 2 receives it. There is sex. This problem is particularly noticeable when the amount of movement of the subject is large or when the communication time lag is long. If the subject that the operator wants to follow is not already at the specified position, it will follow the subject that happens to be at the specified position at that time, so the focus and exposure adjustments differ from the operator's intention. There is a concern that will go. In such a case, in order to follow the subject more accurately, the controller 1 must pre-read the motion of the subject to be followed and consider the length of the communication time lag when selecting the subject. I must.

本発明は、通信タイムラグに依らず操作者が遠隔から指定した被写体をより正確に追従させることが可能な撮像装置、遠隔操作端末、カメラシステム、撮像装置の制御方法およびプログラム、遠隔操作端末の制御方法およびプログラムを提供する。   The present invention relates to an imaging apparatus, a remote operation terminal, a camera system, an imaging apparatus control method and program, and a remote operation terminal control capable of causing a subject specified by an operator from a remote location to follow more accurately regardless of a communication time lag. Methods and programs are provided.

本発明の一側面としての撮像装置は、遠隔操作端末により外部から制御される撮像装置であって、光学系を介した被写体像を光電変換して画像信号を生成する撮像手段と、生成された前記画像信号および前記画像信号を前記遠隔操作端末に送信する際に付与される付与情報を送信するとともに、前記遠隔操作端末の表示部に表示中の画像上で被写体が指定されたとき、前記遠隔操作端末から前記被写体が指定された位置情報を受信するとともに、前記表示部に前記画像信号に対応する画像が表示されたとき、前記遠隔操作端末から前記画像信号に付与された前記付与情報を受信する通信手段と、受信した前記付与情報に基づいて通信遅延時間を算出する算出手段と、算出された前記通信遅延時間に基づいて前記撮像手段により生成された画像信号を所定期間保持する保持手段と、前記位置情報を受信したときに算出された前記通信遅延時間に基づいて前記保持手段に保持されている画像信号を選択する選択手段と、前記選択された画像信号と、受信した前記位置情報に基づいて、現在の画像信号から前記被写体の第1の追従領域を特定する特定手段と、を有することを特徴とする。   An imaging apparatus according to an aspect of the present invention is an imaging apparatus that is externally controlled by a remote operation terminal, and includes an imaging unit that photoelectrically converts a subject image via an optical system and generates an image signal. When the subject is specified on the image displayed on the display unit of the remote operation terminal while transmitting the image signal and the grant information provided when transmitting the image signal to the remote operation terminal, the remote The position information specifying the subject is received from the operation terminal, and when the image corresponding to the image signal is displayed on the display unit, the addition information given to the image signal is received from the remote operation terminal. Communication means, a calculation means for calculating a communication delay time based on the received grant information, and an image generated by the imaging means based on the calculated communication delay time Holding means for holding a signal for a predetermined period, selection means for selecting an image signal held in the holding means based on the communication delay time calculated when the position information is received, and the selected image And a specifying unit that specifies a first tracking region of the subject from a current image signal based on the received signal and the received position information.

本発明の他の目的及び特徴は、以下の実施例において説明される。   Other objects and features of the present invention are illustrated in the following examples.

本発明に依れば、通信タイムラグに依らず操作者が遠隔から指定した被写体をより正確に追従させることが可能になる。   According to the present invention, it is possible to follow a subject designated by an operator from a remote location more accurately without depending on a communication time lag.

本発明の実施の形態における撮像装置及び遠隔操作端末の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device and remote control terminal in embodiment of this invention. 本発明の実施の形態における撮像装置及び遠隔操作端末の処理を示すフローチャートである。It is a flowchart which shows the process of the imaging device and remote control terminal in embodiment of this invention. 本発明の実施の形態における撮像装置及び遠隔操作端末の遠隔操作実行時の処理を示すフローチャートである。It is a flowchart which shows the process at the time of remote operation execution of the imaging device and remote control terminal in embodiment of this invention. 本発明の実施の形態における撮像装置の追従開始処理を示すフローチャートである。It is a flowchart which shows the tracking start process of the imaging device in embodiment of this invention. 本発明の実施の形態におけるパターンマッチング処理を示すフローチャートである。It is a flowchart which shows the pattern matching process in embodiment of this invention. 本発明の実施の形態における撮像装置の追従継続処理を示すフローチャートである。It is a flowchart which shows the follow-up continuation process of the imaging device in embodiment of this invention. 撮像装置と遠隔操作端末とのシステムおいて遠隔操作端末による追従指示時の問題点を示した図である。It is the figure which showed the problem at the time of the tracking instruction | indication by a remote control terminal in the system of an imaging device and a remote control terminal. 撮像装置と遠隔操作端末とのシステムにおいて本発明の実施の形態における追従被写体特定処理を表した図である。It is a figure showing the tracking subject specific process in embodiment of this invention in the system of an imaging device and a remote control terminal.

以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。   Embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed depending on the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.

図1は、本発明の実施の形態における画像処理機能を有する撮像装置及び、該撮像装置を遠隔(外部)から操作する機能を有する遠隔操作端末の構成を示すブロック図である。   FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus having an image processing function and a remote operation terminal having a function of operating the imaging apparatus from a remote (external) position according to an embodiment of the present invention.

図1に示すように、本実施形態のカメラシステムはカメラ10及び遠隔操作端末20から構成されており、それぞれ情報を通信するための撮像側通信部169、遠隔側通信部241を持つことで、情報をやり取りすることが可能である。   As shown in FIG. 1, the camera system of the present embodiment includes a camera 10 and a remote operation terminal 20, and includes an imaging side communication unit 169 and a remote side communication unit 241 for communicating information respectively. It is possible to exchange information.

まず、カメラ(撮像装置)10の構成について説明する。カメラ10は、撮影レンズ11から画像信号を取得できるように構成されており、撮像素子(CMOS)121、CDS/AGC122、タイミングジェネレータ(TG)123、画像入力コントローラ124を備えている。また、追従信号処理部125、被写体領域検出部126を備えている。また、変倍レンズ駆動部131、絞り駆動部132、フォーカシング駆動部133、操作部134、システム制御部14を備えている。また、バス15、記録媒体制御部161、記録媒体162、表示制御部163、表示部164、AF検出部165、SDRAM166、ROM167、フラッシュROM168、撮像側通信部169、振れ検出部17を備えている。   First, the configuration of the camera (imaging device) 10 will be described. The camera 10 is configured to acquire an image signal from the photographing lens 11, and includes an image sensor (CMOS) 121, a CDS / AGC 122, a timing generator (TG) 123, and an image input controller 124. In addition, a tracking signal processing unit 125 and a subject area detection unit 126 are provided. The zoom lens driving unit 131, the aperture driving unit 132, the focusing driving unit 133, the operation unit 134, and the system control unit 14 are also provided. Further, a bus 15, a recording medium control unit 161, a recording medium 162, a display control unit 163, a display unit 164, an AF detection unit 165, an SDRAM 166, a ROM 167, a flash ROM 168, an imaging side communication unit 169, and a shake detection unit 17 are provided. .

システム制御部14は、カメラ全体の動作を統括制御する制御手段として機能し、操作部134からの入力に基づき所定の制御プログラムに従って各部を制御する。   The system control unit 14 functions as a control unit that performs overall control of the operation of the entire camera, and controls each unit according to a predetermined control program based on an input from the operation unit 134.

バス15を介して接続されたROM167には、このシステム制御部14が実行する制御プログラム及び制御に必要な各種データ等が格納されている。また、バス15を介して接続されたフラッシュROM168には、ユーザ設定情報等のカメラ10の動作に関する各種設定情報等が格納されている。また、バス15を介して接続されたSDRAM166は、システム制御部14の演算作業用領域として利用されるとともに、画像データの一時記憶領域として利用される。このように、本発明においてSDRAM166は、撮像素子121により撮像された画像信号を所定期間保持するための保持手段として機能する。   A ROM 167 connected via the bus 15 stores a control program executed by the system control unit 14 and various data necessary for control. The flash ROM 168 connected via the bus 15 stores various setting information related to the operation of the camera 10 such as user setting information. The SDRAM 166 connected via the bus 15 is used as a calculation work area for the system control unit 14 and also as a temporary storage area for image data. As described above, in the present invention, the SDRAM 166 functions as a holding unit for holding the image signal captured by the image sensor 121 for a predetermined period.

撮影レンズ(撮像光学系)11は、被写体側から順に、固定の第1群レンズ111、変倍レンズ112、絞り113、固定の第2群レンズ114、フォーカスコンペレンズ115を有する。   The photographing lens (imaging optical system) 11 includes a fixed first group lens 111, a variable power lens 112, a diaphragm 113, a fixed second group lens 114, and a focus lens 115 in order from the subject side.

変倍レンズ112は、変倍レンズ駆動部131に駆動されて撮像光学系の光軸に沿って前後移動する。ここで、本実施例において前側とは被写体側を指し、後側とは像側を指す。フォーカスコンペレンズ115は、フォーカシング駆動部133に駆動されて撮像光学系の光軸に沿って前後移動する。   The variable power lens 112 is driven by the variable power lens driving unit 131 and moves back and forth along the optical axis of the imaging optical system. Here, in this embodiment, the front side refers to the subject side, and the rear side refers to the image side. The focus competition lens 115 is driven by the focusing drive unit 133 and moves back and forth along the optical axis of the imaging optical system.

システム制御部14は、変倍レンズ駆動部131とフォーカシング駆動部133を制御することにより、変倍レンズ112の位置とフォーカスコンペレンズ115の位置を制御し、撮影レンズ11のズーミングとフォーカシングを行う。   The system control unit 14 controls the position of the zoom lens 112 and the position of the focus lens 115 by controlling the zoom lens drive unit 131 and the focusing drive unit 133 to perform zooming and focusing of the photographing lens 11.

絞り113は、たとえば、アイリス絞りで構成されており、絞り駆動部132に駆動されて動作する。システム制御部14は、絞り駆動部132を制御することにより、絞り113の開口量(絞り値)を制御し、撮像素子121への入射光量を制御する。   The diaphragm 113 is constituted by, for example, an iris diaphragm, and is driven by the diaphragm driving unit 132 to operate. The system control unit 14 controls the aperture driving unit 132 to control the aperture amount (aperture value) of the aperture 113 and control the amount of light incident on the image sensor 121.

撮像素子(撮像手段)121は、CMOSセンサやCCDセンサにより構成される光電変換素子(フォトダイオード)である。撮影レンズ11によって撮像素子121の受光面上に結像された被写体像は、このフォトダイオードによって入射光量に応じた信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、システム制御部14の指令に従ってTG123から与えられる駆動パルスに基づいて信号電荷に応じた電圧信号(画像信号)として撮像素子121から順次読み出される。なお、本実施例では、撮像素子としてCMOSセンサを用いているが、CCDセンサ等の他の構成の撮像素子を用いることもできる。   The imaging element (imaging means) 121 is a photoelectric conversion element (photodiode) configured by a CMOS sensor or a CCD sensor. The subject image formed on the light receiving surface of the image sensor 121 by the photographing lens 11 is converted into signal charges corresponding to the amount of incident light by the photodiode. The signal charge accumulated in each photodiode is sequentially read out from the image sensor 121 as a voltage signal (image signal) corresponding to the signal charge based on a drive pulse supplied from the TG 123 according to a command from the system control unit 14. In this embodiment, a CMOS sensor is used as the image sensor, but an image sensor having another configuration such as a CCD sensor can also be used.

CDS/AGC122は、撮像素子121から出力された画像信号に含まれるリセットノイズ(低周波)を除去するための相関二重サンプリング回路(CDS)と、画像信号を増幅し、一定レベルの大きさにコントロールするためのAGC回路である。CDS/AGC122は、撮像素子121から出力される画像信号を相関二重サンプリング処理するとともに増幅する。   The CDS / AGC 122 is a correlated double sampling circuit (CDS) for removing reset noise (low frequency) included in the image signal output from the image sensor 121, and amplifies the image signal to a certain level. This is an AGC circuit for control. The CDS / AGC 122 performs correlated double sampling processing and amplifies the image signal output from the image sensor 121.

画像入力コントローラ124は、CDS/AGC122から出力された画像信号を取り込んで、SDRAM166に格納する。SDRAM166に格納した画像信号は、表示制御部163によって表示部164に表示される。また、画像信号の記録を行うモードの時には、記録媒体制御部161によって記録媒体162に記録される。さらに、遠隔操作端末20による遠隔操作実行時には、撮像側通信部169によって、遠隔操作端末20内の遠隔側通信部241に送信される。また、後述する通信遅延時間の長さだけ、SDRAM166に画像信号を保持する。SDRAM166に、通信遅延時間分の画像信号を保持するのは本発明の特徴的な部分であり、詳細については後述する。   The image input controller 124 takes in the image signal output from the CDS / AGC 122 and stores it in the SDRAM 166. The image signal stored in the SDRAM 166 is displayed on the display unit 164 by the display control unit 163. In the mode for recording an image signal, the recording medium control unit 161 records the image signal on the recording medium 162. Further, when the remote operation is performed by the remote operation terminal 20, the image-side communication unit 169 transmits the remote operation to the remote communication unit 241 in the remote operation terminal 20. Further, the image signal is held in the SDRAM 166 for the length of the communication delay time described later. It is a characteristic part of the present invention to hold an image signal corresponding to the communication delay time in the SDRAM 166, and details will be described later.

システム制御部14内の追従画像生成部141は、操作部134によって追従の指示があった場合に、SDRAM166に格納された画像信号を取り込み、追従用画像(追従用画像信号)の生成を行う。本実施形態では操作部134の一つとしてタッチパネルがあり、表示画像上のタッチした座標を中心とした所定の領域を追従用画像とする。タッチパネルでなく、操作キーによって追尾する領域の中心座標や、領域そのものを設定できるシステムでも良い。生成した追従用画像信号はSDRAM166に格納する。また追従画像生成部141は、遠隔操作端末側から追従の指示があった場合に、後述する遠隔操作端末20内の遠隔側追従画像生成部211によって生成される座標情報を基に過去の画像信号から追従用画像信号の生成を行うことができる。これは本発明の特徴的な部分であり、詳細は後述する。   The follow-up image generation unit 141 in the system control unit 14 takes in the image signal stored in the SDRAM 166 and generates a follow-up image (follow-up image signal) when the operation unit 134 instructs to follow. In the present embodiment, there is a touch panel as one of the operation units 134, and a predetermined area centered on the touched coordinates on the display image is set as a follow-up image. Instead of the touch panel, a system that can set the center coordinates of the area to be tracked by an operation key or the area itself may be used. The generated follow-up image signal is stored in the SDRAM 166. Further, the follow-up image generation unit 141 receives a past image signal based on the coordinate information generated by the remote-side follow-up image generation unit 211 in the remote operation terminal 20 to be described later when there is a follow-up instruction from the remote operation terminal side. From this, it is possible to generate a follow-up image signal. This is a characteristic part of the present invention, and details will be described later.

追従信号処理部125は、システム制御部14からの指令に従いSDRAM166から追従用画像信号を取り込み、この追従用画像信号から色情報のヒストグラム及び輝度情報ヒストグラムからなる特徴量を生成する。   The follow-up signal processing unit 125 takes in the follow-up image signal from the SDRAM 166 according to a command from the system control unit 14, and generates a feature amount including a color information histogram and a luminance information histogram from the follow-up image signal.

被写体領域検出部126は、現在撮像している画像信号に対して、上述の特徴量を基に追従被写体の探索処理を施し、撮影画面内の所定領域から追従被写体に該当する被写体が存在するかを特定する。追従被写体が存在する場合は、被写体が存在する位置座標を基に追従領域を決定し、その結果をシステム制御部14に送信し、AF制御等を行う。また、被写体が存在する位置座標は、SDRAM166に保持され、次回以降の追従被写体領域の検出を行う際に本情報を用いることで、追従被写体の探索処理を施すエリアを限定することができる。追従被写体領域の特定時に、被写体が存在する位置座標が更新される度に、SDRAM166に保持する位置座標も更新する。   The subject region detection unit 126 performs a tracking subject search process on the currently captured image signal based on the above-described feature amount, and determines whether there is a subject corresponding to the tracking subject from a predetermined region in the shooting screen. Is identified. When the tracking subject exists, the tracking region is determined based on the position coordinates where the subject exists, and the result is transmitted to the system control unit 14 to perform AF control and the like. Further, the position coordinates where the subject exists are held in the SDRAM 166, and the area where the tracking subject search process is performed can be limited by using this information when detecting the tracking subject region from the next time onward. When the tracking subject area is specified, the position coordinates held in the SDRAM 166 are updated whenever the position coordinates where the subject exists are updated.

このように、本発明において、上述の追従信号処理部125及び被写体領域検出部126は、追従被写体の追従領域を特定する特定手段として機能する。   As described above, in the present invention, the follow-up signal processing unit 125 and the subject region detection unit 126 described above function as a specifying unit that specifies the follow-up region of the follow-up subject.

システム制御部14が上述の追従領域を受信したら、AF検出部165に追従領域情報を送信し、AF検出部165は、当該追従領域情報を基に、撮影画面内の追従被写体を含む位置を焦点検出に用いられる領域(焦点検出エリア)として設定する。次に、AF検出部165は、設定した焦点検出エリアの合焦度合いを計算しシステム制御部14に送信する。結果を受信したシステム制御部14は、受信した合焦度合いに応じてフォーカシング駆動部133を制御し、フォーカシング駆動部133はフォーカスコンペレンズ115を制御する。また、システム制御部14は、上記追従領域を基に領域内のヒストグラムを生成し、このヒストグラムに基づいて、フラッシュROM168に設定された適露出になるように絞り駆動部132を制御することで、追従領域に対してAE制御を行う。   When the system control unit 14 receives the tracking area described above, it transmits the tracking area information to the AF detection unit 165, and the AF detection unit 165 focuses the position including the tracking subject in the shooting screen based on the tracking area information. It is set as an area (focus detection area) used for detection. Next, the AF detection unit 165 calculates the degree of focus of the set focus detection area and transmits it to the system control unit 14. The system control unit 14 that has received the result controls the focusing drive unit 133 according to the received degree of focus, and the focusing drive unit 133 controls the focus compensator 115. Further, the system control unit 14 generates a histogram in the area based on the tracking area, and controls the aperture driving unit 132 based on the histogram so that the appropriate exposure set in the flash ROM 168 is obtained. AE control is performed on the tracking area.

撮像側通信部(第1の通信手段)169は、後述する遠隔操作端末20内の遠隔側通信部241と通信を行い、各種情報をやり取りする。通信する情報の内容は本発明の特徴とする部分であり、後述する。   The imaging-side communication unit (first communication unit) 169 communicates with a remote-side communication unit 241 in the remote operation terminal 20 described later to exchange various information. The content of information to be communicated is a feature of the present invention and will be described later.

次に、遠隔操作端末20の構成について説明する。遠隔操作端末20は遠隔側システム制御部21、遠隔側操作部22を備えている。また、バス23、遠隔側通信部241、遠隔側表示制御部242、遠隔側表示部243、遠隔側SDRAM244、遠隔側ROM245、遠隔側フラッシュROM246を備えている。遠隔操作端末20は、遠隔側通信部241によって、カメラ10内の撮像側通信部169から、撮像した画像信号やカメラ制御情報等の情報をやり取りできるように構成されている。   Next, the configuration of the remote operation terminal 20 will be described. The remote operation terminal 20 includes a remote system control unit 21 and a remote operation unit 22. Also provided are a bus 23, a remote communication unit 241, a remote display control unit 242, a remote display unit 243, a remote SDRAM 244, a remote ROM 245, and a remote flash ROM 246. The remote operation terminal 20 is configured to be able to exchange information such as captured image signals and camera control information from the imaging side communication unit 169 in the camera 10 by the remote side communication unit 241.

遠隔側システム制御部21は、遠隔操作端末全体の動作を統括制御する制御手段として機能し、遠隔側操作部22からの入力に基づき所定の制御プログラムに従って各部を制御すると共に、カメラ10を制御するための各種制御情報を生成する。   The remote system control unit 21 functions as a control unit that performs overall control of the operation of the entire remote operation terminal, controls each unit according to a predetermined control program based on an input from the remote operation unit 22, and controls the camera 10. Various control information is generated.

バス23を介して接続された遠隔側ROM245には、遠隔側システム制御部21が実行する制御プログラム及び制御に必要な各種データ等が格納されている。また、遠隔側フラッシュROM246には、ユーザ設定情報等の遠隔操作端末20の動作に関する各種設定情報等が格納されている。   The remote ROM 245 connected via the bus 23 stores a control program executed by the remote system control unit 21 and various data necessary for control. The remote flash ROM 246 stores various setting information relating to the operation of the remote operation terminal 20 such as user setting information.

遠隔側SDRAM244は、遠隔側システム制御部21の演算作業用領域として利用されるとともに、受信した画像信号等の一時記憶領域として利用される。   The remote SDRAM 244 is used as a calculation work area of the remote system control unit 21 and also as a temporary storage area for received image signals and the like.

遠隔側表示制御部242は、遠隔側SDRAM244が格納した、遠隔側通信部241によって撮像側通信部169から受信した受信画像信号に対応する画像を遠隔側表示部243へ表示する。   The remote display control unit 242 displays an image corresponding to the received image signal received from the imaging communication unit 169 by the remote communication unit 241 stored on the remote SDRAM 244 on the remote display unit 243.

次に、遠隔側通信部241と、撮像側通信部169間の通信について詳しく説明する。撮像側通信部169は遠隔側通信部241の受信確認なしに、撮像素子121が画像を撮像する度に画像信号を送信し続ける。遠隔側通信部(第2の通信手段)241は、画像信号を受信する度に遠隔側SDRAM244に該画像信号を格納し、遠隔側表示制御部242によって遠隔側表示部243への表示を行う。遠隔側表示部243への表示が完了する前に撮像側通信部169から新たな画像信号を受信した場合は、新たに受信した画像信号は無視して、遠隔側表示制御部242が実施中の現在の表示処理を継続する。このようにして遠隔操作端末20でストリーミング再生を行う。   Next, communication between the remote side communication unit 241 and the imaging side communication unit 169 will be described in detail. The imaging-side communication unit 169 continues to transmit an image signal every time the imaging element 121 captures an image without confirming reception by the remote-side communication unit 241. The remote side communication unit (second communication unit) 241 stores the image signal in the remote side SDRAM 244 every time an image signal is received, and displays the image signal on the remote side display unit 243 by the remote side display control unit 242. If a new image signal is received from the imaging-side communication unit 169 before the display on the remote-side display unit 243 is completed, the newly received image signal is ignored and the remote-side display control unit 242 is executing Continue the current display process. In this way, streaming playback is performed on the remote operation terminal 20.

また、遠隔側システム制御部21は、カメラ10に対する制御情報や設定変更情報を、遠隔側通信部241によって送信する。システム制御部14は、撮像側通信部169によって受信した制御情報に応じてカメラ10の制御を行い、また設定変更情報に応じて、フラッシュROM168の各種設定情報等を変更することで、カメラ設定の変更を行う。例えば、遠隔側システム制御部21によってズーミング操作を行った場合、通信によってシステム制御部14がズーミングに関する制御情報(ズーム方向、ズームレンズ駆動量に関する情報)を受信する。そして、システム制御部14は、この制御情報を基に変倍レンズ駆動部131を制御してズーミングを行う。また、例えば遠隔側システム制御部21によって記録画質の変更を行った場合、通信によってシステム制御部14が記録画質に関する設定変更情報(記録画質変更情報)を受信し、フラッシュROM168の情報を書き換えることで記録画質設定の変更を行う。   Further, the remote side system control unit 21 transmits control information and setting change information for the camera 10 by the remote side communication unit 241. The system control unit 14 controls the camera 10 in accordance with the control information received by the imaging-side communication unit 169, and changes various setting information in the flash ROM 168 in accordance with the setting change information. Make a change. For example, when a zooming operation is performed by the remote system control unit 21, the system control unit 14 receives control information (zoom direction, zoom lens drive amount information) related to zooming through communication. Then, the system control unit 14 performs zooming by controlling the variable power lens driving unit 131 based on the control information. For example, when the recording image quality is changed by the remote-side system control unit 21, the system control unit 14 receives setting change information (recording image quality change information) related to the recording image quality by communication, and rewrites the information in the flash ROM 168. Change the recording quality setting.

このようにして、カメラ10と遠隔操作端末20は情報の通信を行い、遠隔操作端末20での画像信号の確認や、カメラ10の制御等を行うことができる。   In this way, the camera 10 and the remote operation terminal 20 can communicate information, and can confirm the image signal at the remote operation terminal 20, control the camera 10, and the like.

さらに、カメラ10が撮像側通信部169によって周期的に撮像素子121で撮像した撮像信号(画像信号)を送信する際に、システム制御部14が持つ時刻情報も、該画像信号に付与する形で送信する。遠隔操作端末20は、カメラ10に対して送信する上記制御情報等とは別に、遠隔側表示制御部242によって遠隔側表示部243に画像表示を完了した際に表示した画像信号に付与された時刻情報(付与情報)を、遠隔側通信部241によってカメラ10に送り返す。このように、カメラ10は撮像した画像信号を送信すると同時に該画像信号を送信する際の時刻情報も送信し、遠隔操作端末20は受信した画像信号の表示を遠隔側表示制御部242が行う度にこの時刻情報をカメラ10に対して送り返す。そして、カメラ10が遠隔側通信部241から上記時刻情報を受信したとき、システム制御部14(算出手段)は、カメラ10の現在の時刻情報と受信した時刻情報との差分から、カメラ10と遠隔操作端末20の通信遅延時間を算出する。算出した通信遅延時間はSDRAM166に保持する。   Further, when the camera 10 periodically transmits an imaging signal (image signal) captured by the imaging device 121 by the imaging-side communication unit 169, the time information of the system control unit 14 is also added to the image signal. Send. In addition to the control information transmitted to the camera 10, the remote operation terminal 20 is a time given to the image signal displayed when the remote display control unit 242 completes image display on the remote display unit 243. Information (granting information) is sent back to the camera 10 by the remote communication unit 241. In this way, the camera 10 transmits the captured image signal and also transmits time information when transmitting the image signal, and the remote operation terminal 20 displays the received image signal each time the remote display control unit 242 performs display. This time information is sent back to the camera 10. When the camera 10 receives the time information from the remote communication unit 241, the system control unit 14 (calculation unit) determines whether the camera 10 and the camera 10 are remote from the difference between the current time information of the camera 10 and the received time information. The communication delay time of the operation terminal 20 is calculated. The calculated communication delay time is held in the SDRAM 166.

次に、本発明の特徴的な部分で、遠隔操作端末20で被写体追従指示を行い、撮像装置が追従を行うまでの流れを説明する。遠隔側システム制御部21内の遠隔側追従画像生成部211(生成手段)は、遠隔側操作部22によって追従の指示があった場合に、指示が行われた座標情報(位置情報)の生成を行う。本実施形態では遠隔側操作部22をタッチパネルとし、遠隔側表示部243に表示中の画像においてタッチした座標を座標情報として生成する。遠隔側操作部22はタッチパネルでなく、操作キーによって追尾する被写体領域の座標を設定できるシステムでも良い。生成した座標情報は、遠隔側システム制御部21の指示で、遠隔側通信部241によって撮像側通信部169に送信される。システム制御部14は、撮像側通信部169から受信した座標情報をSDRAM166に保持すると共に、遠隔操作端末20によって追従指示がされたとして追従開始処理を始める。   Next, in a characteristic part of the present invention, a flow from when the subject operation is instructed by the remote operation terminal 20 until the imaging apparatus performs the operation will be described. The remote side follow-up image generation unit 211 (generation unit) in the remote-side system control unit 21 generates coordinate information (position information) for which an instruction has been issued when the follow-up instruction is given by the remote-side operation unit 22. Do. In the present embodiment, the remote operation unit 22 is a touch panel, and the touched coordinates in the image displayed on the remote display unit 243 are generated as coordinate information. The remote side operation unit 22 may be a system that can set the coordinates of a subject area to be tracked by an operation key, instead of a touch panel. The generated coordinate information is transmitted to the imaging side communication unit 169 by the remote side communication unit 241 according to an instruction from the remote side system control unit 21. The system control unit 14 holds the coordinate information received from the imaging-side communication unit 169 in the SDRAM 166 and starts the follow-up start process on the assumption that the follow-up instruction has been given by the remote operation terminal 20.

まずシステム制御部14(選択手段)は、SDRAM166に保持している過去の画像信号の内、座標情報受信時から通信遅延時間分だけ過去の画像信号を選択する。ここで選択した、通信遅延時間分だけ過去の画像信号とは、遠隔操作端末側で被写体を選択したときと同じ画像信号である。システム制御部14は、選択した過去の画像信号を追従画像生成部141に取り込み、受信した座標情報を中心とした所定の領域から追従用画像を生成する。次に、追従信号処理部125は、この生成された追従用画像を取り込み、先述したように、追従用画像信号から色情報のヒストグラム及び輝度情報ヒストグラムからなる特徴量を生成する。被写体領域検出部126は、選択した過去の画像信号より一つ未来に保持した画像信号に対して、生成された特徴量を基に追従被写体の探索処理を施し、撮影画面内の所定領域から追従被写体に該当する被写体が存在するかを特定する。追従被写体が存在する場合は、追従被写体が存在する位置座標を基に追従領域を決定する。カメラ10によって追従指示を行う場合は、現在撮像している画像信号に対して追従領域を決定するので、リアルタイムで追従被写体を特定できたとすることができる。   First, the system control unit 14 (selecting means) selects a past image signal corresponding to the communication delay time from the time of receiving the coordinate information, among the past image signals held in the SDRAM 166. The past image signal corresponding to the communication delay time selected here is the same image signal as when the subject is selected on the remote operation terminal side. The system control unit 14 takes the selected past image signal into the follow-up image generation unit 141 and generates a follow-up image from a predetermined area centered on the received coordinate information. Next, the follow-up signal processing unit 125 takes in the generated follow-up image and generates a feature amount including a color information histogram and a luminance information histogram from the follow-up image signal as described above. The subject region detection unit 126 performs a tracking subject search process based on the generated feature amount for the image signal held in the future one after the selected past image signal, and follows the predetermined region in the shooting screen. It is determined whether there is a subject corresponding to the subject. When the tracking subject exists, the tracking region is determined based on the position coordinates where the tracking subject exists. When the tracking instruction is given by the camera 10, the tracking area is determined for the image signal currently being picked up, so it can be assumed that the tracking subject can be specified in real time.

しかしながら、遠隔操作端末20から追従指示を行う場合は、通信のタイムラグが存在するため、カメラ側では過去の画像信号に対して追従被写体が特定された段階となる。そのため、カメラ側では過去の画像信号から一つ未来の画像信号に対して追従被写体の特定処理を行い、この処理を現在の画像信号に至るまで継続する必要がある。システム制御部14は、上述した一つ未来に保持した画像信号に対して追従領域を特定できたら、該一つ未来に保持した画像信号よりさらに未来に保持した画像信号に対して、追従信号処理部125及び被写体領域検出部126で追従被写体の特定を行う。このように追従被写体の特定を繰り返して、通信遅延時間を基に選択した過去の画像信号から、時系列順に順次追従被写体の特定を行っていき、最終的に現在の画像信号に対して追従被写体の特定を行う。ただし、通信遅延時間が極端に短い場合などは、時系列順に順次追従被写体の特定を行わずに、選択した過去の画像信号を基に現在の画像信号に対して追従被写体の特定を行ってもよい。現在の撮像信号に対して追従被写体が特定したら、その結果をシステム制御部14に送信し、AFやAE制御(焦点や露光の調節)を行う。   However, when a follow-up instruction is given from the remote control terminal 20, there is a communication time lag, and the camera is in a stage where a follow-up subject is specified for a past image signal. Therefore, on the camera side, it is necessary to perform a tracking subject specifying process for one future image signal from a past image signal, and to continue this process until the current image signal is reached. When the system control unit 14 can identify the tracking area for the image signal held in the future, the system control unit 14 performs tracking signal processing on the image signal held in the future further than the image signal held in the future. The tracking subject is specified by the unit 125 and the subject region detection unit 126. In this way, the tracking subject is repeatedly identified, and the tracking subject is sequentially identified from the past image signal selected based on the communication delay time in the time series order. To identify. However, if the communication delay time is extremely short, the tracking subject may be specified for the current image signal based on the selected past image signal without sequentially specifying the tracking subject in chronological order. Good. When a tracking subject is identified for the current imaging signal, the result is transmitted to the system control unit 14, and AF and AE control (adjustment of focus and exposure) are performed.

また、現在の画像信号中で特定した追従被写体が存在する位置座標は、SDRAM166に保持し、次回以降の追従被写体領域の検出を行う際に本情報を用いることで、追従被写体の探索処理を施すエリアを限定することができる。追従被写体領域の特定時に、被写体が存在する位置座標が更新される度に、SDRAM166に保持する位置座標も更新する。   In addition, the position coordinates where the tracking subject specified in the current image signal exists is held in the SDRAM 166, and the tracking subject search process is performed by using this information when detecting the tracking subject region from the next time on. The area can be limited. When the tracking subject area is specified, the position coordinates held in the SDRAM 166 are updated whenever the position coordinates where the subject exists are updated.

上述した手順によって、遠隔操作端末20から追従の指示を行いカメラ側で追従を開始する(図8)。追従を行うにあたって、追従指示を行った画像と、追従位置から特徴量を抽出する画像は同じでなければならない。これは、同じ画像でなければ追従したい被写体が追従指示を行った位置にいない可能性があるからである。遠隔操作端末20で追従指示を行った画像と同様の画像から特徴量を抽出できるようにするために、カメラ10は、カメラ10と遠隔操作端末20の通信遅延時間を計測し、事前に通信遅延時間分の画像信号を保持しておく。   According to the above-described procedure, the follow operation is instructed from the remote operation terminal 20 and the follow is started on the camera side (FIG. 8). In performing tracking, the image for which the tracking instruction is given and the image for extracting the feature value from the tracking position must be the same. This is because if the images are not the same, there is a possibility that the subject to be followed is not at the position where the follow instruction has been issued. The camera 10 measures the communication delay time between the camera 10 and the remote operation terminal 20 so that the feature amount can be extracted from the same image as the image for which the follow-up instruction is given by the remote operation terminal 20, and the communication delay in advance. The image signal for the time is held.

このとき、通信遅延時間分だけ画像信号を保持しておくのは、通信の遅延によって、遠隔操作端末20で追従の指示を行ったとき、カメラ10が座標情報を受信した時点ではこの通信遅延時間分だけ進んだ時点の画像が表示されているからである。この通信遅延時間は、通信の状態に応じて時々刻々と変化するため、それに合わせて過去の画像を保持しておく。通信遅延時間より多少多めの時間分、過去の画像を保持しておいてもよい。遠隔操作端末20で追従指示が行われたとき、カメラ10は、座標情報受信時点の通信遅延時間分だけ過去の画像を選択し、この画像の受信した座標情報を中心とした領域から特徴量を抽出する。この特徴量をもとに、過去の画像信号を時系列順に順次パターンマッチングを行い、最終的に現在撮像している画像信号から追従被写体を特定する。追従被写体を過去のある画像の時点で発見しても、現在撮像している画像信号ではその位置から大きく離れている可能性がある。   At this time, the image signal is retained for the communication delay time because the communication delay causes the communication delay time when the camera 10 receives the coordinate information when the remote operation terminal 20 instructs to follow. This is because the image at the time point advanced by the amount is displayed. Since this communication delay time changes from moment to moment according to the state of communication, past images are held accordingly. The past images may be held for a time slightly longer than the communication delay time. When a follow-up instruction is given by the remote operation terminal 20, the camera 10 selects a past image for the communication delay time at the time of receiving the coordinate information, and extracts a feature amount from an area centered on the received coordinate information of this image. Extract. Based on this feature quantity, past image signals are sequentially subjected to pattern matching in chronological order, and finally a tracking subject is specified from the image signal currently captured. Even if the tracking subject is found at the time of a certain past image, there is a possibility that the currently captured image signal is far away from the position.

例えば、特徴量を抽出できた段階で、現在の画像信号にパターンマッチングを行ったとき、追従したい被写体が大きく離れていた場合、パターンマッチングの領域が狭ければ被写体を発見できない可能性がある。また、パターンマッチングの領域が広ければ追従被写体の誤認識をしてしまう可能性がある。時系列順に順次被写体を特定していくことで、より正確に追従被写体を特定することができる。このようなシステムであれば、遠隔操作端末20からの追従指示時にも、通信タイムラグの課題を改善して追従したい被写体を正確に指定することができる。   For example, when pattern matching is performed on the current image signal at the stage where the feature amount has been extracted, if the subject to be followed is greatly separated, there is a possibility that the subject cannot be found if the pattern matching area is narrow. Further, if the pattern matching area is wide, there is a possibility that the subject to be followed is erroneously recognized. By sequentially specifying subjects in chronological order, the tracking subject can be specified more accurately. With such a system, it is possible to improve the communication time lag problem and accurately specify the subject to be followed even when following the instruction from the remote operation terminal 20.

なお、本実施形態では、カメラ10が保持する過去画像のリフレッシュ間隔は撮像した画像全てであるが、SDRAM166の保存容量を削減するために、間引いて保持してもよい。このリフレッシュ間隔は、時系列順に被写体を特定していく際に、少なくとも追従被写体の判定が可能な間隔に設定する必要がある。これは、被写体特定を行う際のパターンマッチングの範囲や、被写体を追従する最大の移動量を基に決定される。また、本実施形態では通信遅延時間を基に、保持した過去の画像信号から、遠隔操作端末20でタッチされた画像を特定したが、遠隔操作端末20でタッチした画像とフレーム情報が同じ画像を選択する処理にしてもよい。また、リフレッシュ間隔を大きくした場合は、通信遅延時間や、フレーム情報が一致する過去画像が存在しない場合があるが、その場合は最も近い画像を選択する。   In the present embodiment, the refresh interval of the past image held by the camera 10 is all the captured images, but may be thinned and held in order to reduce the storage capacity of the SDRAM 166. This refresh interval needs to be set to an interval at which at least a subject to be tracked can be determined when specifying subjects in time series. This is determined based on the pattern matching range when the subject is specified and the maximum amount of movement that follows the subject. In the present embodiment, the image touched by the remote operation terminal 20 is specified from the held past image signal based on the communication delay time. However, an image having the same frame information as the image touched by the remote operation terminal 20 is used. You may make it the process to select. When the refresh interval is increased, there may be no past image with the same communication delay time or frame information. In this case, the closest image is selected.

次に、被写体追従機能について詳細に説明する。ここでは、カメラ10によって追従指示が行われた場合を例に説明する。操作部134によって被写体の追従指示があったとき、追従画像生成部141は、追従指示がされたときの位置情報、本実施形態ではタッチパネルのタッチ座標を中心とした所定の範囲を追従用画像として生成する。所定の範囲は、少なくとも、追従制御を行う上で誤追従が頻発しない程度に特徴量が生成できる大きさにする必要がある。所定の範囲は固定でもよいし、ユーザ設定等で可変できるようなシステムでもよい。生成された追従用画像は、追従信号処理部125によって、色情報のヒストグラム及び輝度情報のヒストグラムを生成し、これを追従用画像の特徴量とする。本実施形態では、色及び輝度のヒストグラムを生成しているが、色及び輝度のうち少なくとも一方のヒストグラムを生成するようにしても構わない。   Next, the subject tracking function will be described in detail. Here, a case where a follow instruction is given by the camera 10 will be described as an example. When the operation unit 134 instructs the subject to follow, the follow-up image generation unit 141 uses the positional information when the follow-up instruction is given, in this embodiment, a predetermined range centered on the touch coordinates of the touch panel as the follow-up image. Generate. The predetermined range needs to be at least large enough to generate a feature amount to the extent that erroneous tracking does not occur frequently in performing tracking control. The predetermined range may be fixed, or may be a system that can be changed by a user setting or the like. For the generated follow-up image, the follow-up signal processing unit 125 generates a histogram of color information and a histogram of luminance information, which are used as feature amounts of the follow-up image. In the present embodiment, the color and luminance histograms are generated, but at least one of the color and luminance histograms may be generated.

さらに、被写体領域検出部126で、現在撮像している画像信号から、上述した追従用画像と同様のサイズの画像を生成し、これを追従候補画像とする。追従用画像と同様に、追従信号処理部125によって、追従候補画像から色及び輝度のヒストグラムを生成し、これを追従候補画像の特徴量とする。被写体領域検出部126は、追従用画像の特徴量と、追従候補画像の特徴量とから、各色情報毎の差分と、輝度情報の差分を算出し、さらにこれら算出した値の和を計算して、これを保持する。同時に、追従候補画像の位置情報も保持する。   Further, the subject area detection unit 126 generates an image having the same size as the follow-up image described above from the image signal currently captured, and sets this as a follow-up candidate image. Similar to the follow-up image, the follow-up signal processing unit 125 generates a color and luminance histogram from the follow-up candidate image, and uses this as a feature amount of the follow-up candidate image. The subject area detection unit 126 calculates a difference for each color information and a difference of luminance information from the feature amount of the follow-up image and the feature amount of the follow-up candidate image, and further calculates the sum of these calculated values. Hold this. At the same time, the position information of the tracking candidate image is also held.

さらに、現在撮像している画像信号から、順次追従候補画像を生成することでマッチングを行っていき、この追従候補画像の特徴量と、追従用画像の特徴量の要素の差分及びその和を計算していく。この特徴量の要素の差分の和が最も小さいときの値と、その時の追従候補画像の位置情報を、以前保存した情報に上書きして保持する。最終的に求めた特徴量の要素の差分の和が所定より小さければ、その追従候補画像が追従被写体だと特定して、保持していた位置情報から所定の範囲を追従領域として設定する。なお、特徴量の差分の和に関する所定値は、追従動作を実施したときに、追従したい被写体に対して追従可能な割合及び、追従してはならない被写体に対して誤追従しない割合を基に決定する。このようにして、追従領域を決定し、追従の開始をする。なお、遠隔操作端末20から追従指示を行う場合は、過去画像から順次パターンマッチングを行う必要がある。   Furthermore, matching is performed by sequentially generating a tracking candidate image from the image signal currently captured, and the difference between the feature amount of the tracking candidate image and the feature amount element of the tracking image and the sum thereof are calculated. I will do it. The value at the time when the sum of the differences of the feature amount elements is the smallest and the position information of the follow-up candidate image at that time are overwritten on the previously stored information and held. If the sum of the differences between the elements of the finally obtained feature values is smaller than a predetermined value, the tracking candidate image is specified as a tracking subject, and a predetermined range is set as a tracking region from the held position information. The predetermined value related to the sum of the difference between feature amounts is determined based on the ratio that can follow the subject that you want to follow and the ratio that does not follow the subject that should not follow when performing the tracking operation. To do. In this way, the tracking area is determined and tracking is started. In addition, when performing a follow-up instruction from the remote operation terminal 20, it is necessary to perform pattern matching sequentially from past images.

また、追従の継続方法について説明する。追従を継続するための情報として、追従候補画像と追従領域を設定した位置情報を、SDRAM166に保持しておく。追従継続時には、撮像が行われる度に、SDRAM166に保持した追従用画像を基に、被写体領域検出部126及び追従信号処理部125によって、前述したように、撮像した画像信号と追従用画像とのマッチングを行う。   In addition, a method for continuing tracking will be described. As information for continuing the tracking, the SDRAM 166 holds position information in which the tracking candidate image and the tracking area are set. At the time of continuous tracking, each time imaging is performed, based on the tracking image held in the SDRAM 166, the subject region detection unit 126 and the tracking signal processing unit 125, as described above, obtain the captured image signal and the tracking image. Perform matching.

このとき、保持してある追従領域を設定した位置情報を基に、マッチングを行う画像信号の範囲を限定する。追従領域を設定した位置を中心に、所定の範囲だけマッチングを行うようにすれば、余計な範囲をマッチングすることによる誤追尾や、演算時間の短縮を図ることができる。マッチングを行う所定の範囲は、追従継続処理を行ってから次の追従継続処理を行うまでの時間に、追従したい被写体が撮像画面内で動作してよい最大距離を設計し、その最大距離移動したときにカバーできる範囲に設定する。この範囲が大きければ、被写体が大きく動作しても追従できるが誤追従が多くなり、範囲小さければ被写体が大きく動作すると追従できなくなるが誤追従が少なくなる。このように追従を継続するために再度マッチングを行った際に、先述したように、最終的に求めた特徴量の要素の差分の和が所定より小さければ、その追従候補画像が追従被写体だと特定して、追従候補画像の位置情報から所定の範囲を追従領域として更新する。   At this time, the range of the image signal to be matched is limited based on the position information in which the tracking area that is held is set. If matching is performed only for a predetermined range centering on the position where the tracking area is set, it is possible to achieve false tracking by matching the extra range and shorten the calculation time. The predetermined range for matching is the maximum distance that the subject that wants to follow can move within the imaging screen during the time between the follow-up continuation process and the next follow-up continuation process. Set it to a range that can sometimes be covered. If this range is large, it can follow even if the subject moves large, but there will be many false follow-ups. If the range is small, it will not be able to follow if the subject moves large, but there will be less false follow-up. In this way, when matching is performed again to continue tracking, as described above, if the sum of the differences between the elements of the finally obtained feature amount is smaller than a predetermined value, the tracking candidate image is a tracking subject. Specifically, a predetermined range is updated as the tracking area from the position information of the tracking candidate image.

またこの時の追従候補画像の位置情報を、SDRAM166に保持している位置情報に上書き更新する。次回の追従継続処理時には、更新した位置情報を使用することで、適切なマッチング範囲を設定できる。このようにして追従の継続を行う。この時、撮像する度に追従継続処理を行わなくてもよく、例えば撮像を所定回数行う毎に追従継続処理を行うといった制御にしてもよい。追従継続処理を行う撮像間隔が長いほど、被写体が大きく動作したときに追従できなくなるが、処理時間を削減することができる。   In addition, the position information of the tracking candidate image at this time is overwritten and updated with the position information held in the SDRAM 166. In the next follow-up continuation process, an appropriate matching range can be set by using the updated position information. In this way, the tracking is continued. At this time, it is not necessary to perform the follow-up continuation process every time an image is taken. The longer the imaging interval for performing the follow-up continuation process, the less follow-up is possible when the subject moves greatly, but the processing time can be reduced.

また、追従の停止を行うときについて説明する。追従継続時に操作部134若しくは遠隔側操作部22によって追従停止指示が出された場合には、システム制御部14は追従の停止を行い、非追従時の動作に戻す。例えば、追従領域に対して設定していたAF領域を、追従停止時には通常時に設定するAF領域に戻す。同様に、追従継続時に追従する被写体が特定できず、所定時間経過した場合は、追従の停止を行う。追従被写体が特定できない間に待機する所定時間が長ければ、再度追従被写体を特定して復帰できる可能性が高くなるが、通常時の状態に戻す処理が遅れる。追従被写体が特定できない間に待機する所定時間が短い場合は、その逆である。   A case where the tracking is stopped will be described. When a follow-up stop instruction is issued by the operation unit 134 or the remote-side operation unit 22 when the follow-up is continued, the system control unit 14 stops the follow-up and returns to the non-follow-up operation. For example, the AF area set for the tracking area is returned to the AF area that is normally set when the tracking is stopped. Similarly, if the subject to be followed cannot be specified when the follow-up is continued and a predetermined time has elapsed, the follow-up is stopped. If the predetermined time to wait while the tracking subject cannot be specified is long, there is a high possibility that the tracking subject can be specified and returned again, but the process of returning to the normal state is delayed. The reverse is true when the predetermined time to wait while the tracking subject cannot be identified is short.

このようにして被写体の追従開始、継続、停止の処理を行う。   In this way, subject tracking start, continuation, and stop processing are performed.

次に、上記構成を有するカメラ10及び遠隔操作端末20の、本実施形態における動作について図2から図6用いて説明する。   Next, operations of the camera 10 and the remote control terminal 20 having the above-described configuration in this embodiment will be described with reference to FIGS.

図2は、本実施形態における、カメラ10内のシステム制御部14及び、遠隔操作端末20内の遠隔側システム制御部21で行う、カメラの遠隔操作処理を表すフローチャートである。図2の左側のフローチャートが、カメラ遠隔操作モード時のカメラ10の動作を表すものであり、各処理を「SC」で表示している。図2の右側のフローチャートが、カメラ遠隔操作モード時の遠隔操作端末20の動作を表すものであり、各処理を「SR」で表示している。   FIG. 2 is a flowchart showing camera remote operation processing performed by the system control unit 14 in the camera 10 and the remote-side system control unit 21 in the remote operation terminal 20 in the present embodiment. The flowchart on the left side of FIG. 2 represents the operation of the camera 10 in the camera remote operation mode, and each process is indicated by “SC”. The flowchart on the right side of FIG. 2 represents the operation of the remote operation terminal 20 in the camera remote operation mode, and each process is displayed as “SR”.

まずカメラ側の処理について説明する。ステップSC001は、カメラ遠隔操作を行っていないときのカメラの制御(以下、カメラの通常制御という)を表しており、制御実施後にステップSC002へ進む。カメラの通常制御時は遠隔操作を行わないので詳細については省略するが、カメラのみで各種カメラ制御、撮像信号表示、追従の指示を行う。ステップSC002は、カメラ遠隔操作モードを実行するかどうかの判断を行う。   First, the processing on the camera side will be described. Step SC001 represents camera control when the camera remote operation is not being performed (hereinafter referred to as normal camera control), and proceeds to step SC002 after the control is performed. Since remote operation is not performed during normal control of the camera, the details are omitted. However, only the camera performs various camera control, imaging signal display, and follow-up instructions. Step SC002 judges whether camera remote operation mode is performed.

ステップSC001においてカメラ遠隔操作モードを実行する指示があればステップSC003へ進み、指示がなければステップSC001へ進む。ステップSC003はカメラ遠隔操作モードのキャンセルがないかどうかを判断し、キャンセルがない場合はステップSC004へ進み、キャンセルがある場合はステップSC001へ進む。カメラ遠隔操作モード実行指示により、遠隔操作端末20との通信確立を行っている際に、遠隔操作モードのキャンセルがあれば、SC001でカメラの通常制御を行う。   If there is an instruction to execute the camera remote operation mode in step SC001, the process proceeds to step SC003, and if there is no instruction, the process proceeds to step SC001. In step SC003, it is determined whether or not the camera remote operation mode is cancelled. If there is no cancel, the process proceeds to step SC004, and if there is a cancel, the process proceeds to step SC001. If communication with the remote operation terminal 20 is established according to the camera remote operation mode execution instruction and the remote operation mode is canceled, normal control of the camera is performed in SC001.

SC004では、遠隔操作端末20との通信を確立する。遠隔操作端末20に対して通信確立指示を送信し、それに対して遠隔操作端末20から通信確立可能情報を受信できれば、通信が確立できたとして、遠隔操作端末20に対して通信確立完了情報を送信すると共に、ステップSC005に進む。また、遠隔操作端末20に送信した通信確立指示に対して、タイムアウトにより通信が確立できなかった場合は、ステップSC003に戻り、カメラ遠隔操作モードのキャンセルがあるかどうかを再度判断する。   In SC004, communication with the remote control terminal 20 is established. A communication establishment instruction is transmitted to the remote operation terminal 20, and if communication establishment possible information can be received from the remote operation terminal 20, a communication establishment completion information is transmitted to the remote operation terminal 20 assuming that communication has been established. At the same time, the process proceeds to step SC005. If communication cannot be established due to timeout in response to the communication establishment instruction transmitted to the remote operation terminal 20, the process returns to step SC003 to determine again whether or not the camera remote operation mode has been canceled.

ステップSC005では、通信確立時のカメラの設定を遠隔操作端末と共有するために、遠隔操作端末20に対してカメラの設定情報を送信する。ステップSC005の処理を実行した後は、ステップSC006へ進む。また、詳細は後述するが、遠隔操作端末20からカメラ10に対して設定の変更指示があった場合も、この設定を共有するために、遠隔操作端末20に対してカメラの設定情報を送信する。ステップSC006では、現在のカメラモードが撮影モードか、再生モードかを判断し、撮影モードである場合はステップSC007へ進み、再生モードである場合はステップSC008へ進む。ステップSC007は、本実施形態の特徴とする部分であり図3で後述する。   In step SC005, the camera setting information is transmitted to the remote operation terminal 20 in order to share the camera setting at the time of establishing communication with the remote operation terminal. After executing the process of step SC005, the process proceeds to step SC006. Further, although details will be described later, even when there is an instruction to change the setting from the remote operation terminal 20 to the camera 10, the setting information of the camera is transmitted to the remote operation terminal 20 in order to share this setting. . In step SC006, it is determined whether the current camera mode is the shooting mode or the playback mode. If it is the shooting mode, the process proceeds to step SC007, and if it is the playback mode, the process proceeds to step SC008. Step SC007 is a characteristic part of this embodiment and will be described later with reference to FIG.

ステップSC008では、再生モード時の処理を行う。カメラ側で撮影した動画像の再生を行うと同時に、遠隔操作端末20に対して再生している動画像の表示を行う。また、遠隔操作端末20から再生したい動画像の選択や、動画再生中の各種コマンド(再生、停止、早送り等)の実行を、カメラ10に対して行う。詳細については省略する。ステップSC007若しくはステップSC008の処理を実行したら、ステップSC009へ進む。ステップSC009では、電源がオフされたかどうかを判断し、オフされていなければステップSC010へ進み、オフされていれば処理を終了する。ステップSC010では、遠隔操作端末20からカメラ遠隔操作モードのキャンセル指示があったかどうかを判断し、カメラ遠隔操作モードのキャンセル指示がなければステップSC011へ進む。キャンセル指示があればステップSC001へ戻り遠隔操作を行わない通常のカメラ制御を行う。   In step SC008, processing in the playback mode is performed. At the same time as reproducing the moving image taken on the camera side, the reproduced moving image is displayed on the remote operation terminal 20. In addition, the camera 10 is selected from the remote operation terminal 20 to select a moving image to be played back and execute various commands (playback, stop, fast forward, etc.) during the playback of the moving image. Details are omitted. If the process of step SC007 or step SC008 is executed, the process proceeds to step SC009. In step SC009, it is determined whether or not the power is turned off. If not turned off, the process proceeds to step SC010, and if turned off, the process is terminated. In step SC010, it is determined whether or not there is an instruction to cancel the camera remote operation mode from the remote operation terminal 20. If there is no instruction to cancel the camera remote operation mode, the process proceeds to step SC011. If there is a cancel instruction, the process returns to step SC001 to perform normal camera control without remote control.

ステップSC011では、遠隔操作端末20によって撮影モードと再生モードの切り替え指示があったかどうかを判断し、モード切替指示があった場合はステップSC012へ進み、モード切替指示がなかった場合はステップSC005へ戻る。ステップSC012では、現在撮影モードであれば再生モードに、現在再生モードであれば撮影モードにカメラ設定を変更して、ステップSC005へ戻る。ステップSC005において、撮影モードと再生モードの切り替えや、ステップSC007内で行われたカメラ設定情報の変更を、遠隔操作端末に共有し、設定されたモードで動作を行う。   In step SC011, it is determined whether or not there has been an instruction to switch between the photographing mode and the reproduction mode by the remote operation terminal 20. If there is a mode switching instruction, the process proceeds to step SC012, and if there is no mode switching instruction, the process returns to step SC005. In step SC012, the camera setting is changed to the playback mode if the current shooting mode is selected, and the camera setting is changed to the shooting mode if the current playback mode is set, and the process returns to step SC005. In step SC005, the switching between the shooting mode and the reproduction mode and the change of the camera setting information performed in step SC007 are shared with the remote operation terminal, and the operation is performed in the set mode.

次に遠隔操作端末側の処理について説明する。ステップSR001は、カメラ遠隔操作を行っていないときの遠隔操作端末の制御(以下、遠隔操作端末の通常制御という)を表している。遠隔操作端末の通常制御時は遠隔操作を行わないので詳細については省略するが、遠隔操作端末に備わっている他の各種機能(インターネットや音楽再生や動画像再生等)を実行している。ステップSR002では、カメラ遠隔操作モードの実行が行われるかどうかの判断を行う。ステップSR001において、カメラ遠隔操作モードの実行が行われればステップSR003へ進み、遠隔操作モードの実行が行われなければステップSR001で行っている各種処理を継続する。ステップSR003はカメラ遠隔操作モードのキャンセルがないかどうかを判断し、キャンセルがない場合はステップSR004へ進み、キャンセルがある場合はステップSR001へ戻る。   Next, processing on the remote operation terminal side will be described. Step SR001 represents control of the remote operation terminal when the camera remote operation is not performed (hereinafter referred to as normal control of the remote operation terminal). Since remote operation is not performed during normal control of the remote operation terminal, the details are omitted, but other various functions (Internet, music reproduction, moving image reproduction, etc.) provided in the remote operation terminal are executed. In step SR002, it is determined whether or not the camera remote operation mode is executed. In step SR001, if the camera remote operation mode is executed, the process proceeds to step SR003, and if the remote operation mode is not executed, the various processes performed in step SR001 are continued. In step SR003, it is determined whether or not the camera remote operation mode is cancelled. If there is no cancel, the process proceeds to step SR004, and if there is a cancel, the process returns to step SR001.

SR004では、カメラとの通信を確立する。カメラ10からの通信確立指示を受信できた場合、カメラ10に対して通信確立可能情報を送信し、それに対して再度カメラ10からの通信完了情報が受信できれば、通信が確立できたとしてステップSR005に進む。また、カメラ10から通信確立指示を受信できず、タイムアウトにより通信が確立できなかった場合は、ステップSR003に戻り、カメラ遠隔操作モードのキャンセルがあるかどうかを再度判断する。カメラ遠隔操作モードのキャンセル指示があれば、SR001に戻り遠隔操作端末20の各種制御を再開する。ステップSR005では、通信確立時のカメラの設定を遠隔操作端末にも反映するために、カメラ10から設定情報を受信することで遠隔操作端末側で受信した設定情報と同様の設定を行う。   In SR004, communication with the camera is established. If the communication establishment instruction from the camera 10 can be received, the communication establishment possible information is transmitted to the camera 10, and if the communication completion information from the camera 10 can be received again, it is determined that the communication is established and the process proceeds to step SR005. move on. If the communication establishment instruction cannot be received from the camera 10 and communication cannot be established due to timeout, the process returns to step SR003 to determine again whether the camera remote operation mode has been canceled. If there is an instruction to cancel the camera remote operation mode, the process returns to SR001 to resume various controls of the remote operation terminal 20. In step SR005, the setting similar to the setting information received on the remote operation terminal side is performed by receiving the setting information from the camera 10 in order to reflect the setting of the camera at the time of establishing the communication to the remote operation terminal.

例えば、現在のカメラのフォーカスモードはAFかMFかどうかを受信し、それを設定することで、AF時にはフォーカスをマニュアル制御するアイコンをグレーアウトするという様な制御を行う。ステップSR005の処理を実行した後は、ステップSR006へ進む。   For example, by receiving whether the current camera focus mode is AF or MF and setting it, control is performed such that an icon for manually controlling the focus is grayed out during AF. After executing the process of step SR005, the process proceeds to step SR006.

また、詳細は後述するが、遠隔操作端末20からカメラ10に対して設定の変更指示を行った場合も、この設定を共有するために、カメラ10の設定情報を再度受信し、遠隔操作端末20に設定を反映する。ステップSR006では、現在のカメラモードが撮影モードか、再生モードかを判断し、撮影モードである場合はステップSR007へ進み、再生モードである場合はステップSR008へ進む。   Although details will be described later, even when a setting change instruction is issued from the remote operation terminal 20 to the camera 10, the setting information of the camera 10 is received again in order to share this setting, and the remote operation terminal 20 Reflect the setting to. In step SR006, it is determined whether the current camera mode is the shooting mode or the playback mode. If the current camera mode is the shooting mode, the process proceeds to step SR007, and if it is the playback mode, the process proceeds to step SR008.

ステップSR007は、本実施形態の特徴とする部分であり図3で後述する。ステップSR008では、再生モード時の処理を行う。遠隔操作端末20から再生したい動画像の選択や、動画再生中の各種コマンド(再生、停止、早送り等)の実行を、カメラ10に対して行うと共に、カメラ10が再生している動画像の表示を行う。詳細については省略する。ステップSR007若しくはステップSR008の処理を実行したら、ステップSR009へ進む。   Step SR007 is a characteristic part of this embodiment and will be described later with reference to FIG. In step SR008, processing in the playback mode is performed. Selection of a moving image to be reproduced from the remote operation terminal 20 and execution of various commands (play, stop, fast forward, etc.) during moving image reproduction are performed on the camera 10 and display of the moving image being reproduced by the camera 10 I do. Details are omitted. If the process of step SR007 or step SR008 is executed, the process proceeds to step SR009.

ステップSR009では、電源がオフされたかどうかを判断し、オフされていなければステップSR010へ進み、オフされていれば処理を終了する。ステップSR010では、遠隔操作端末20でカメラ遠隔操作モードのキャンセル指示を実行したかどうかを判断し、カメラ遠隔操作モードのキャンセル指示を実行していればステップSR011へ進み、実行していなければステップSR012へ進む。   In step SR009, it is determined whether the power is turned off. If not turned off, the process proceeds to step SR010, and if turned off, the process is terminated. In step SR010, it is determined whether the remote operation terminal 20 has issued a camera remote operation mode cancel instruction. If the camera remote operation mode cancel instruction has been executed, the process proceeds to step SR011, and if not, step SR012 is executed. Proceed to

ステップSR011では、カメラ10に対してカメラ遠隔操作モードのキャンセル指示を送信すると共に、ステップSR001へ戻り、遠隔操作端末の通常制御を行う。ステップSR012では、遠隔操作端末20において撮影モードと再生モードの切り替え指示を実行したかどうかを判断する。モード切替指示を実行した場合はステップSR013へ進み、モード切替指示を実行しなかった場合はステップSR005へ戻り、カメラ遠隔操作モードにおける遠隔操作端末の処理を継続する。ステップSR013では、カメラモードの切り替え指示をカメラ10に送信し、ステップSR005へ戻る。ステップSR005において、撮影モードと再生モードの切り替えを遠隔操作端末に共有し、設定されたモードで動作を行う。   In step SR011, a camera remote operation mode cancel instruction is transmitted to the camera 10, and the process returns to step SR001 to perform normal control of the remote operation terminal. In step SR012, it is determined whether or not the remote operation terminal 20 has issued an instruction to switch between the shooting mode and the playback mode. When the mode switching instruction is executed, the process proceeds to step SR013. When the mode switching instruction is not executed, the process returns to step SR005, and the processing of the remote operation terminal in the camera remote operation mode is continued. In step SR013, a camera mode switching instruction is transmitted to camera 10, and the process returns to step SR005. In step SR005, the switching between the photographing mode and the reproduction mode is shared with the remote operation terminal, and the operation is performed in the set mode.

次に、本発明の特徴とする部分である図2のステップSC007の遠隔操作時カメラ制御及び、ステップSR007の遠隔操作時遠隔操作端末制御について、図3のフローチャートを用いて説明する。   Next, the remote control camera control in step SC007 and the remote control terminal control in step SR007 of FIG. 2, which are features of the present invention, will be described with reference to the flowchart of FIG.

図3の左側のフローチャートが、遠隔操作時のカメラ制御であり、右側のフローチャートが、遠隔操作時の遠隔操作端末の制御を表している。   The flowchart on the left side of FIG. 3 shows camera control during remote operation, and the flowchart on the right side represents control of the remote operation terminal during remote operation.

まずカメラ側の処理について説明する。SC101では、遠隔操作端末20に対して映像信号(画像信号)及び、カメラ10が遠隔操作端末20に対して映像信号を送信した時刻(以下、カメラ映像送信時間とする)を送信しステップSC102へ進む。カメラ側は、遠隔操作端末20の受信確認することなく映像信号の送信を行う。ステップSC102では、遠隔操作端末20によってカメラ設定の変更があったかどうかを判断し、カメラ設定の変更があった場合はステップSC103へ進み、変更がなかった場合はステップSC104へ進む。ステップSC103では、遠隔操作端末20によって変更されたカメラ設定を反映し、ステップSC104へ進む。   First, the processing on the camera side will be described. In SC101, the video signal (image signal) and the time when the camera 10 transmits the video signal to the remote operation terminal 20 (hereinafter referred to as camera video transmission time) are transmitted to the remote operation terminal 20, and the process proceeds to step SC102. move on. The camera side transmits the video signal without confirming reception of the remote operation terminal 20. In step SC102, it is determined whether or not the camera setting has been changed by the remote operation terminal 20. If the camera setting has been changed, the process proceeds to step SC103, and if there has been no change, the process proceeds to step SC104. In step SC103, the camera setting changed by the remote operation terminal 20 is reflected, and the process proceeds to step SC104.

例えば、遠隔操作端末側で記録画質の変更が行われた場合、ステップSC103ではカメラ側で記録画質の変更設定を反映する。ステップSC104では、遠隔操作端末20によって追従開始指示があったかどうかを判断し、追従開始指示があった場合はステップSC105へ進み、そうでない場合はステップSC108へ進む。本実施形態では遠隔操作端末20から追従被写体位置情報(追従被写体座標情報)を受信した場合に、追従開始指示があったと見なす。   For example, when the recording image quality is changed on the remote operation terminal side, the recording image quality change setting is reflected on the camera side in step SC103. In step SC104, it is determined whether or not a follow-up start instruction is given by the remote operation terminal 20. If a follow-up start instruction is given, the process proceeds to step SC105, and if not, the process proceeds to step SC108. In this embodiment, when tracking subject position information (tracking subject coordinate information) is received from the remote operation terminal 20, it is considered that a tracking start instruction has been issued.

ステップSC105では、受信した追従被写体位置情報を基に追従開始処理を行い、ステップSC106へ進む。ステップSC105の処理は本発明の特徴とする部分であり、詳細な説明は図4で後述する。ステップSC106では、ステップSC105で追従が行えなかったかどうかを判断し、追従が行えなかった場合はステップSC107へ進み、追従が行えた場合はステップSC112へ進み、追従処理以外の他の処理に移る。   In step SC105, a tracking start process is performed based on the received tracking subject position information, and the process proceeds to step SC106. The process of step SC105 is a characteristic part of the present invention, and a detailed description thereof will be described later with reference to FIG. In step SC106, it is determined whether or not the follow-up can be performed in step SC105. If the follow-up cannot be performed, the process proceeds to step SC107. If the follow-up is performed, the process proceeds to step SC112, and other processes other than the follow-up process are performed.

ステップSC107では、追従が行えなかったとして遠隔操作端末20に追従不可情報を送信する。追従が行えたかどうかは、追従の可否を1ビットで表す追従不可情報がステップSC105で発行されたかどうかで判断する。次に、ステップSC104で追従開始指示がなかった場合に進むステップSC108では、現在追従を行っているかどうかを判断し、追従を行っている場合はステップSC109へ進む。そうでない場合はステップSC112へ進み、追従処理以外の他の処理に移る。現在追従中である場合に進むステップSC109では、追従継続処理を行い、ステップSC110へ進む。この追従継続処理についての詳細な説明は、図6で後述する。ステップSC110では、ステップSC109で追従不可情報があったか、若しくは遠隔操作端末20から追従の停止が指定されたかどうかを判断し、該当する場合はステップSC111へ進む。そうでない場合はステップSC112へ進み、追従処理以外の他の処理に移る。   In step SC107, follow-up impossible information is transmitted to remote operation terminal 20 because follow-up cannot be performed. Whether or not the follow-up can be performed is determined by whether or not follow-up impossible information indicating whether or not the follow-up can be performed by 1 bit is issued in step SC105. Next, in step SC108 which proceeds when there is no follow-up start instruction in step SC104, it is determined whether or not follow-up is currently being performed. If follow-up is being performed, the process proceeds to step SC109. If not, the process proceeds to step SC112, and the process proceeds to a process other than the follow-up process. In step SC109, which proceeds when currently following, a follow-up continuation process is performed, and the process proceeds to step SC110. A detailed description of the follow-up continuation process will be described later with reference to FIG. In step SC110, it is determined whether there is follow-up impossible information in step SC109, or whether follow-up stop is designated from the remote operation terminal 20. If applicable, the process proceeds to step SC111. If not, the process proceeds to step SC112, and the process proceeds to a process other than the follow-up process.

ステップSC111では、追従停止処理を行い、ステップSC112へ進み、追従処理以外の他の処理に移る。追従が継続できない場合、すなわち追従被写体が特定できない場合、若しくは使用者が追従を停止したい場合は、追従を停止して通常の撮影状態に戻す。本実施の形態における通常の撮影状態とは、AFやAEの調整を行う枠を、追従領域ではなく画面中央に設定した状態である。通常の撮影状態は、もちろん本実施の形態の構成に限らず、追従を行っていないときの状態であれば他の構成でもよい。   In step SC111, a follow-up stop process is performed, the process proceeds to step SC112, and a process other than the follow-up process is performed. When the tracking cannot be continued, that is, when the tracking subject cannot be specified, or when the user wants to stop the tracking, the tracking is stopped and the normal shooting state is restored. The normal shooting state in the present embodiment is a state in which a frame for adjusting AF or AE is set at the center of the screen instead of the tracking area. Of course, the normal shooting state is not limited to the configuration of the present embodiment, and any other configuration may be used as long as the tracking is not performed.

次に、追従に関わる処理等を行った後に進むステップSC112では、遠隔操作端末20によるカメラ制御指示があったかどうかを判断し、カメラ制御指示があった場合はステップSC113へ進み、そうでない場合はステップSC114へ進む。ステップSC113では、遠隔操作端末20からのカメラ制御指示に従ってカメラの制御を行い、ステップSC114へ進む。ステップSC112及びステップSC113で行われる処理の一例として、遠隔操作端末20でズーミングの指示が行われた場合は、それにしたがってズーミングを行う。ステップSC114では、カメラ本体によるカメラ設定や制御を行い、ステップSC115へ進む。ステップSC114では、カメラ本体の操作によるカメラ設定の変更や、カメラの制御指示を受け付け、それにしたがってカメラの制御を行う。   Next, in step SC112, which proceeds after processing related to tracking, etc., it is determined whether there has been a camera control instruction from the remote operation terminal 20. If there is a camera control instruction, the process proceeds to step SC113, and if not, step SC113 is performed. Proceed to SC114. In step SC113, the camera is controlled in accordance with the camera control instruction from the remote operation terminal 20, and the process proceeds to step SC114. As an example of the processing performed in step SC112 and step SC113, when an instruction for zooming is given at the remote operation terminal 20, zooming is performed accordingly. In step SC114, camera settings and control are performed by the camera body, and the process proceeds to step SC115. In step SC114, a camera setting change or camera control instruction is received by operating the camera body, and the camera is controlled accordingly.

また、AF等の使用者の指示に従わないで行われるカメラ制御についてもここで行う。詳細については省略する。ステップSC115では、遠隔操作端末20からカメラ映像送信時間を受信したかどうかを判断し、受信した場合はステップSC116へ進み、受信していない場合は処理を終了する。ステップSC116では通信遅延時間の算出を行い処理を終了する。   Further, camera control performed without following the user's instruction such as AF is also performed here. Details are omitted. In step SC115, it is determined whether the camera video transmission time has been received from remote operation terminal 20. If received, the process proceeds to step SC116, and if not received, the process is terminated. In step SC116, the communication delay time is calculated and the process is terminated.

次に、遠隔操作端末側の処理について説明する。ステップSR101では、カメラ10からの映像信号の受信を開始すると共に、カメラ映像送信時間を受信してステップSR102へ進む。なお、受信した映像信号の表示は後述するステップSR114で行うが、後述するステップSR102からステップSR113までの処理は、前回の遠隔操作時遠隔操作端末制御の際にステップSR114ですでに映像信号の表示を行っているとして説明する。ステップSR102は、遠隔操作端末20で使用者によるカメラ設定の変更指示があったかどうかを判断し、設定変更指示があった場合はステップSR103へ進み、そうでない場合はステップSR104へ進む。   Next, processing on the remote operation terminal side will be described. In step SR101, reception of the video signal from the camera 10 is started, and the camera video transmission time is received, and the process proceeds to step SR102. Although the received video signal is displayed in step SR114, which will be described later, the processing from step SR102 to step SR113, which will be described later, is already performed in step SR114 during the remote control terminal control during the previous remote operation. Will be described as being performed. In step SR102, it is determined whether there has been a camera setting change instruction from the user at remote operation terminal 20. If there is a setting change instruction, the process proceeds to step SR103, and if not, the process proceeds to step SR104.

ステップSR103では、カメラ設定の変更情報をカメラ10に対して送信する。次にステップSR104では、遠隔操作端末20で追従開始の指示が行われたかどうかを判断し、追従開始の指示が行われた場合はステップSR105へ進み、そうでない場合はステップSR109へ進む。本実施形態では、遠隔操作端末20で映像信号の表示を行うと共に、タッチによる操作を行えるタッチパネルに対して、被写体のタッチが行われた場合に追従開始の指示を行う。   In step SR103, the camera setting change information is transmitted to the camera 10. Next, in step SR104, it is determined whether or not a follow-up start instruction has been issued at the remote operation terminal 20. If a follow-up start instruction has been issued, the process proceeds to step SR105, and if not, the process proceeds to step SR109. In the present embodiment, a video signal is displayed on the remote operation terminal 20 and a follow-up start instruction is issued when a subject is touched on a touch panel that can be operated by touch.

ステップSR105では、使用者によるタッチが行われた座標を追従被写体位置情報として生成し、ステップSR106へ進む。ステップSR106では、追従被写体位置情報をカメラ10に対して送信しステップSR107へ進む。次に、ステップSR107では、カメラ側のステップSC105で行った追従開始処理の結果、パターンマッチングに失敗して追従が行えなかった場合にカメラ10から送信される追従不可情報を受信したかどうかを判断する。追従不可情報がある場合はステップSR108へ進み、そうでない場合はステップSR109へ進む。   In step SR105, the coordinates touched by the user are generated as tracking subject position information, and the process proceeds to step SR106. In step SR106, the tracking subject position information is transmitted to camera 10, and the process proceeds to step SR107. Next, in step SR107, as a result of the tracking start process performed in step SC105 on the camera side, it is determined whether or not follow-up disable information transmitted from the camera 10 is received when pattern matching fails and tracking cannot be performed. To do. If there is follow-up impossible information, the process proceeds to step SR108; otherwise, the process proceeds to step SR109.

ステップSR108では、カメラ側で追従が行えなかったことを使用者に伝えるために、追従が行えなかった旨を表示し、ステップSR109へ進む。このように追従が行えなかった旨を表示することで、使用者が再度追従指示を行えるように促す。ステップSR109では、遠隔操作端末20による追従停止の指示があったかどうかを判断し、追従停止指示があった場合はステップSR110へ進み、そうでない場合はステップSR111へ進む。この追従停止指示とは、現在追従を行っている場合に、使用者が追従をやめたい場合に行う操作である。遠隔操作端末20に表示された追従停止アイコンを使用者がタッチすることで、追従停止指示を行う。   In step SR108, in order to inform the user that tracking cannot be performed on the camera side, a message indicating that tracking cannot be performed is displayed, and the flow proceeds to step SR109. By displaying that the follow-up could not be performed in this way, the user is prompted to perform the follow-up instruction again. In step SR109, it is determined whether or not a follow-up stop instruction has been given by the remote operation terminal 20. If a follow-up stop instruction has been issued, the process proceeds to step SR110. Otherwise, the process proceeds to step SR111. This follow-up stop instruction is an operation performed when the user wants to stop following when currently following. When the user touches the follow stop icon displayed on the remote operation terminal 20, a follow stop instruction is given.

ステップSR110では、追従停止指示をカメラ10に対して送信して、ステップSR111へ進む。ステップSR111では、遠隔操作端末20によるカメラ制御の指示があったかどうかを判断し、カメラ制御指示があった場合はステップSR112へ進み、そうでない場合はステップSR113へ進む。ステップSR112では、遠隔操作端末20で行われたカメラ制御情報をカメラ側に送信し、ステップSR113へ進む。例えば、遠隔操作端末20によってズーミングを行った場合、カメラ10に対してズーミングを行うように制御情報を送信する。ステップSR113では、ステップSR101で受信を開始した映像信号の受信が完了したかどうかを判断し、完了した場合はステップSR114へ進み、完了していない場合はステップSR115へ進む。   In step SR110, a follow-up stop instruction is transmitted to camera 10, and the process proceeds to step SR111. In step SR111, it is determined whether or not there has been an instruction for camera control from the remote operation terminal 20. If there is an instruction for camera control, the process proceeds to step SR112, and if not, the process proceeds to step SR113. In step SR112, the camera control information performed at the remote operation terminal 20 is transmitted to the camera side, and the process proceeds to step SR113. For example, when zooming is performed by the remote operation terminal 20, control information is transmitted to the camera 10 so as to perform zooming. In step SR113, it is determined whether reception of the video signal started in step SR101 is completed. If completed, the process proceeds to step SR114. If not completed, the process proceeds to step SR115.

ステップSR114では、受信完了した映像信号の表示処理を行い、ステップSC116へ進む。ステップSR116では、ステップSR101で受信したカメラ映像送信時間をそのままカメラ側に送り返し、処理を終了する。ステップSR115では、ステップSR102からSR112までに行われた、カメラ10に対する各種指示情報を、初期化(指示がない状態)し、ステップSR102に戻り、再度ステップSR102から処理を行う。カメラ側は撮像を行う度に、遠隔操作端末20に対して映像信号を送信するが、遠隔操作端末20はそれをすべて表示できるとは限らず、遠隔操作端末20の処理能力や、回線状況に依存する。遠隔操作端末20の処理能力が低いほど、カメラ側が表示する周期に対してより遅い周期で映像信号を表示することになる。ステップSR101で受信開始した映像信号を受信し続けている間も、遠隔操作端末20でカメラ設定の変更やカメラ制御の実施、現在表示している画像に対しての追従の開始指示等が行えるようにする。   In step SR114, display processing of the video signal that has been received is performed, and the flow proceeds to step SC116. In step SR116, the camera video transmission time received in step SR101 is sent back to the camera side as it is, and the process ends. In step SR115, various instruction information for the camera 10 performed in steps SR102 to SR112 is initialized (in the state where there is no instruction), the process returns to step SR102, and the process is repeated from step SR102. The camera side transmits a video signal to the remote operation terminal 20 every time it takes an image. However, the remote operation terminal 20 does not always display all of them, and the processing capability of the remote operation terminal 20 and the line status are limited. Dependent. As the processing capability of the remote operation terminal 20 is lower, the video signal is displayed at a slower cycle than the cycle displayed on the camera side. While the video signal started to be received in step SR101 is continuously received, the remote operation terminal 20 can change the camera settings, perform camera control, and instruct to start following the currently displayed image. To.

つまり、ステップSR113で受信完了するまでの間は、ステップSR115の処理を経由して、ステップSR102からステップSR112の処理を行えるようにする。映像信号の受信が完了した場合は、ステップSR114でその映像信号を遠隔操作端末20に表示し、次に遠隔操作時遠隔操作端末制御が行われた後のステップSR101で、再度映像信号の受信を開始する。再度映像信号の受信をしている間は、現在表示されている映像信号に対して各種処理の指示を受け付ける。なお、遠隔制御開始後すぐのような、ステップSR101で映像信号の受信を開始した段階でまだ何も映像信号を表示していない場合は、ステップSR102、SR104、ステップSR107、ステップSR109、ステップSR111の処理はすべてNとする。そうすることで各種制御指示を受け付けずに各種ステップをスキップする。そして、ステップSR114で初めて映像信号の表示が行われた後に、ステップSR102からステップSR112の各種制御指示を受け付けるものとする。   That is, until the reception is completed in step SR113, the processing from step SR102 to step SR112 can be performed via the processing in step SR115. When the reception of the video signal is completed, the video signal is displayed on the remote operation terminal 20 in step SR114, and then the video signal is received again in step SR101 after the remote operation terminal control is performed at the time of remote operation. Start. While receiving the video signal again, it receives various processing instructions for the currently displayed video signal. If no video signal is displayed yet at the stage where reception of the video signal is started in step SR101, such as immediately after the start of remote control, steps SR102, SR104, step SR107, step SR109, and step SR111 are performed. All processes are N. By doing so, various steps are skipped without receiving various control instructions. Then, after the video signal is displayed for the first time in step SR114, various control instructions in steps SR102 to SR112 are accepted.

本実施の形態において、カメラ側はSC101で周期的に映像信号の送信を行う際に、この送信時刻を表すカメラ映像送信時間も付与して送信する。それに対して、遠隔操作端末20は、映像信号の受信を完了し、ステップSR114で映像信号の表示を行う度に、ステップSR116によって、このカメラ映像送信時間をカメラ側に送り反す。カメラ側はステップSC116で、カメラ映像送信時間を受信した時刻と、このカメラ映像送信時間の差分から通信遅延時間を算出する。この通信遅延時間は、カメラ10が画像を送信し遠隔操作端末20が映像信号を表示してカメラに通信完了するまでの、カメラと遠隔操作端末間の往復の通信時間を表している。通信回線の状況によって、この通信遅延時間は逐次変動する。   In the present embodiment, when the camera side periodically transmits a video signal in SC 101, the camera side also transmits a camera video transmission time indicating the transmission time. On the other hand, every time the remote operation terminal 20 completes the reception of the video signal and displays the video signal in step SR114, the camera video transmission time is sent back to the camera side in step SR116. In step SC116, the camera side calculates a communication delay time from the difference between the time when the camera video transmission time is received and the camera video transmission time. This communication delay time represents a round-trip communication time between the camera and the remote operation terminal until the camera 10 transmits an image, the remote operation terminal 20 displays a video signal, and communication with the camera is completed. The communication delay time varies sequentially depending on the communication line status.

図8の説明で先述したように、被写体の追従指示を行うには、使用者が被写体追従指示を行った画像と同じ画像で、かつ追従指示を行った座標と同じ座標から被写体を特定する必要がある。遠隔操作端末20からの追従指示を行った時点でカメラ側ではすでに遠隔操作端末20に表示されている画像よりも未来の画像を撮像している。そのため、遠隔操作端末20で追従指示を行った画像と同様の画像に対して追従指示を行うためにカメラ側で過去の画像を保持しておく。遠隔操作端末20で追従指示を行った画像を保持しておくには、少なくとも先述した通信遅延時間(カメラと遠隔操作端末間の往復の通信時間)の長さだけ保持する必要がある。カメラ10はこのように常に過去画像を保持しておく。そして、ステップSR104で追従開始指示が行われた際には、先述のステップSR106で通信された被写体位置情報と、追従開始指示があった時点でステップSC116で算出された通信遅延時間を基に、ステップSC105で追従開始処理を行う。   As described above with reference to FIG. 8, in order to instruct the subject to follow, it is necessary to specify the subject from the same image as the image for which the user has issued the subject follow-up instruction and the same coordinates as the coordinates for which the follow-up instruction has been issued. There is. When a follow-up instruction is given from the remote operation terminal 20, the camera side has captured a future image rather than an image already displayed on the remote operation terminal 20. Therefore, a past image is held on the camera side in order to issue a follow-up instruction to an image similar to the image for which the follow-up instruction has been given by the remote operation terminal 20. In order to hold an image for which a follow-up instruction has been given by the remote operation terminal 20, it is necessary to hold at least the length of the communication delay time described above (the round-trip communication time between the camera and the remote operation terminal). The camera 10 always keeps past images in this way. Then, when a follow-up start instruction is issued in step SR104, based on the subject position information communicated in step SR106 described above and the communication delay time calculated in step SC116 when the follow-up start instruction is given, In step SC105, follow-up start processing is performed.

次に、本発明の特徴的な部分である図3のステップSC105の追従開始処理について、図4のフローチャートを用いて説明する。   Next, the follow-up start process in step SC105 in FIG. 3 which is a characteristic part of the present invention will be described with reference to the flowchart in FIG.

ステップSC201では、保持している過去画像の内、現在の通信遅延時間分だけ過去の画像を、特徴量を抽出する画像として選択してステップSC202へ進む。抽出する特徴量とは、先述したように色情報のヒストグラム及び輝度情報のヒストグラムである。本実施形態では通信遅延時間を基に過去の画像を選択しているが、過去の画像と共に画像のフレーム情報を保持しておき、フレーム情報が一致する画像を選択するシステムでも良い。ステップSC202では、ステップSC201で選択した画像に対して、遠隔操作端末20から受信した被写体位置情報を中心とした所定の領域から特徴量を抽出し、ステップSC203へ進む。   In step SC201, a past image corresponding to the current communication delay time is selected as an image from which a feature amount is extracted from the held past images, and the process proceeds to step SC202. The feature amount to be extracted is a histogram of color information and a histogram of luminance information as described above. In the present embodiment, a past image is selected based on the communication delay time. However, a system may be used in which frame information of an image is held together with the past image, and an image with matching frame information is selected. In step SC202, feature amounts are extracted from a predetermined region centered on the subject position information received from the remote operation terminal 20 for the image selected in step SC201, and the process proceeds to step SC203.

ステップSC203では、保持している過去画像の内、現在選択している画像より一つ未来の画像を選択し直してステップSC204へ進む。ステップSC202の処理の直後では、ステップSC201で選択した画像よりも一つ未来の画像を選択することになる。ステップSC204では、ステップSC202で抽出した特徴量と、ステップSC203で選択した画像を基にパターンマッチングを行いステップSC205へ進む。ステップSC204の詳細は、図5で後述する。   In step SC203, one of the future images is selected again from the currently selected images among the held past images, and the process proceeds to step SC204. Immediately after the process of step SC202, one future image is selected from the image selected in step SC201. In step SC204, pattern matching is performed based on the feature amount extracted in step SC202 and the image selected in step SC203, and the process proceeds to step SC205. Details of step SC204 will be described later with reference to FIG.

ステップSC205では、ステップSC204の処理で追従不可情報が発行されたかどうかを判断し、発行されていない場合はステップSC206へ進み、発行された場合は追従不可と判断し処理を終了する。ステップSC206では、現在時刻に撮像している画像に対してパターンマッチングが実行できたかを判断し、実行できた場合はステップSC207へ進み、実行できていない場合はステップSC203へ戻る。図8の説明で先述したように、ステップSC203からステップSC206の処理を繰り返し、保持している過去画像に対して順次追従被写体が存在する領域(第2の追従領域)を発見していく。そして、最終的に現在時刻に撮像している画像に対してパターンマッチングを行い追従被写体が存在する領域(第1の追従領域)を特定する。このように時系列順に順次追従被写体を追いかけて発見していくことで、追従被写体の移動が大きくても現在撮像している画像から追従被写体を特定することができる。   In step SC205, it is determined whether or not follow-up failure information has been issued in the process of step SC204. If it has not been issued, the process proceeds to step SC206. If it has been issued, it is determined that follow-up is impossible and the process ends. In step SC206, it is determined whether pattern matching has been executed for the image captured at the current time. If it can be executed, the process proceeds to step SC207. If not, the process returns to step SC203. As described above with reference to FIG. 8, the processing from step SC203 to step SC206 is repeated, and a region (second tracking region) where the tracking subject is sequentially present with respect to the held past image is found. Then, pattern matching is finally performed on the image captured at the current time, and the region where the tracking subject is present (first tracking region) is specified. As described above, the tracking subject is sequentially chased and found in time-series order, so that the tracking subject can be identified from the currently captured image even if the tracking subject moves greatly.

次に、ステップSC206で現在時刻に撮像している画像に対してパターンマッチングが実行できている場合に進むステップSC207では、最後に保持した位置情報を中心とした領域に追従領域を設定してステップSC208へ進む。この最後に保持した位置情報とは、現在時刻に撮像している画像中で、追従したい被写体が発見できた位置に相当する。カメラ10はこの追従領域に対して、図3のステップSC114でAFやAEの処理を行う。ステップSC208では、追従を継続していくための情報として、ステップSC202で特徴量を抽出した追従用画像と、ステップSC207で追従領域を設定した位置情報を保持して処理を終了する。これらの情報を基に、図3におけるステップSC109で追従継続処理を行う。   Next, in step SC207, which proceeds when pattern matching can be performed on the image captured at the current time in step SC206, a tracking area is set in the area centered on the position information held last. Proceed to SC208. The position information held at the end corresponds to the position where the subject to be tracked can be found in the image captured at the current time. The camera 10 performs AF and AE processing on this tracking area in step SC114 in FIG. In step SC208, as the information for continuing the tracking, the tracking image in which the feature amount is extracted in step SC202 and the position information in which the tracking area is set in step SC207 are held, and the process is terminated. Based on these pieces of information, follow-up continuation processing is performed at step SC109 in FIG.

以上のようにして、通信遅延時間によって遠隔操作端末20で追従指示が行われた画像を過去画像から特定し、遠隔操作端末20から受信した追従被写体の位置情報を基に追従被写体の特徴量を抽出する。さらに、この特徴量を基に、特定した過去画像から時系列順に、各画像に対してパターンマッチングを行っていくことで、現在撮像している画像から追従被写体を特定する。カメラ側で通信遅延時間分の過去画像を保持しておき、遠隔操作端末20で追従指示を行った画像と同様の画像を見つけ出し、位置情報を基に特徴量を抽出することで、通信タイムラグによる被写体の誤追尾を防ぎ、より正確に追従被写体の特定を行うことができる。カメラは、この追従領域に対してAFやAEといった制御を行うことで、使用者が追従したい被写体に対して好適なフォーカス及び露出を簡単に設定することができる。   As described above, the image for which the follow-up instruction is given by the remote operation terminal 20 is identified from the past image according to the communication delay time, and the feature amount of the follow-up subject is determined based on the position information of the follow-up subject received from the remote operation terminal 20. Extract. Further, the subject to be tracked is specified from the currently captured image by performing pattern matching on each image in chronological order from the specified past image based on the feature amount. By storing past images corresponding to the communication delay time on the camera side, finding an image similar to the image for which the follow-up instruction has been given by the remote operation terminal 20, and extracting a feature amount based on the position information, so that the communication time lag It is possible to prevent erroneous tracking of the subject and specify the tracking subject more accurately. The camera can easily set a suitable focus and exposure for the subject that the user wants to follow by performing control such as AF and AE on the following area.

次に、図4のステップSC204のパターンマッチング処理について、図5のフローチャートを用いて説明する。ステップSC301では、ステップSC203で選択した画像に対して、パターンマッチング範囲を設定してステップSC302へ進む。ここで設定する範囲は、前回のパターンマッチング処理において、後述するステップSC306で最後に保持した位置情報を中心とした領域を設定する。この位置情報とは、すなわち追従したい被写体が存在するとされる位置である。なお、パターンマッチング処理が初回である場合は、図4のステップSC202で特徴量を算出する際に使用した、遠隔操作端末20から受信した位置情報を基にする。ステップSC302では、パターンマッチング範囲の一部の領域から特徴量を抽出し、ステップSC303へ進む。   Next, the pattern matching process in step SC204 in FIG. 4 will be described using the flowchart in FIG. In step SC301, a pattern matching range is set for the image selected in step SC203, and the process proceeds to step SC302. The range set here sets an area centered on the position information last held in step SC306, which will be described later, in the previous pattern matching process. This position information is a position at which a subject to be followed exists. When the pattern matching process is the first time, it is based on the position information received from the remote operation terminal 20 used when calculating the feature amount in step SC202 in FIG. In step SC302, feature amounts are extracted from a part of the pattern matching range, and the process proceeds to step SC303.

ステップSC302で特徴量を抽出する領域の大きさは、図4のステップSC202で特徴量を抽出する領域と同様のものである。さらに、後述するSC308によってステップSC302に処理が戻るたびに、画像信号中の所定の範囲内から順次画像信号を切り出す位置を変更していくことで、画像信号とのマッチングを行っていく。なお、マッチングを行う範囲が広いほど、追従被写体を発見できる可能性は高くなるが、誤追従も増える。切り出す位置の変更方法は、1行ごとに切り出し位置変更を行い、1行が終われば次の列の行について切り出しを行う。当然、列を優先して切り出しを行ってもよい。また、切り出しの範囲は、切り出し画像が重複しても重複しなくてもよく、必要な追従精度によって決める。切り出し画像が重複する場合、例えば、1画素ずらす毎に切り出し画像を生成する場合では、マッチングをより精密にとるため追従精度が上がるが、マッチングの計算量が多くなる。   The size of the region from which the feature amount is extracted in step SC302 is the same as the region from which the feature amount is extracted in step SC202 in FIG. Further, every time the process returns to step SC302 by SC308 described later, the position where the image signal is cut out sequentially from within a predetermined range in the image signal is changed to perform matching with the image signal. Note that the wider the matching range is, the higher the possibility that a tracking subject can be found, but the false tracking also increases. As a method for changing the cutout position, the cutout position is changed for each line, and when one line ends, the next line is cut out. Of course, the column may be cut out with priority. In addition, the cutout range may or may not overlap the cutout images, and is determined by the required tracking accuracy. When the cutout images overlap, for example, when the cutout image is generated every time one pixel is shifted, the tracking accuracy increases in order to achieve more precise matching, but the amount of calculation for matching increases.

対して、例えば追従画像が重複しないように、追従画像に隣接する範囲を追従画像とした場合は、マッチングの計算量が少なくなるが追従精度が下がる。次に、ステップSC303では、図4のステップSC202で抽出した特徴量と、ステップSC302で抽出した特徴量の差分を計算し、ステップSC304へ進む。ステップSC304では、ステップSC303で計算した特徴量の差分が、現在保持している特徴量の差分値より小さいかどうかを判断し、小さい場合はステップSC305へ進み、そうでない場合はステップSC307へ進む。このように、追従したい被写体の特徴量と、パターンマッチング対象画像の特徴量の差分をとり、その差が小さいほどマッチングが取れていることを表す。   On the other hand, for example, when the range adjacent to the follow-up image is set as the follow-up image so that the follow-up images do not overlap, the amount of calculation for matching is reduced, but the follow-up accuracy is lowered. Next, in step SC303, the difference between the feature amount extracted in step SC202 of FIG. 4 and the feature amount extracted in step SC302 is calculated, and the process proceeds to step SC304. In step SC304, it is determined whether or not the difference between the feature amounts calculated in step SC303 is smaller than the feature value difference value currently held. If smaller, the procedure proceeds to step SC305. Otherwise, the procedure proceeds to step SC307. As described above, the difference between the feature amount of the subject to be tracked and the feature amount of the pattern matching target image is calculated, and the smaller the difference is, the more the matching is achieved.

よって、ステップSC304で特徴量の差分がここまでで最小であるかどうかを判断し、後述する処理によって最小値を保持していく。なお、ステップSC305でまだ一度も特徴量の差分を保持していない場合は、必ずステップSC305へ進むようにする。ステップSC305では、計算した特徴量の差分の最小値を保持し、ステップSC306へ進む。   Therefore, in step SC304, it is determined whether or not the difference between the feature amounts is the smallest so far, and the minimum value is held by a process described later. If the feature amount difference has not been held at step SC305, the process always proceeds to step SC305. In step SC305, the calculated minimum value of the feature amount difference is held, and the process proceeds to step SC306.

ステップSC306では、ステップSC302で特徴量を抽出した領域の中心位置座標を保持してステップSC307へ進む。この中心位置情報は、現在パターンマッチングを行っている画像信号に対して、最もマッチングが取れている位置情報で、最終的には追従被写体がいるだろうとされる位置情報を保持する。この位置情報は、次回のパターンマッチング処理におけるSC301の処理でパターンマッチングの範囲を設定するために用いる。もしくは、パターンマッチングを行った選択画像が、現在カメラが撮像している画像であれば、追従領域を設定するために用いる。なお、本実施形態では中心位置座標としているが、もちろん中心位置でなく、例えば領域の左上の座標としても構わない。   In step SC306, the center position coordinates of the region from which the feature amount is extracted in step SC302 are held, and the process proceeds to step SC307. This center position information is the position information that is most matched to the image signal that is currently subjected to pattern matching, and holds the position information that the tracking subject is supposed to be in the end. This position information is used to set a pattern matching range in the process of SC301 in the next pattern matching process. Alternatively, if the selected image that has undergone pattern matching is an image that is currently captured by the camera, it is used to set the tracking region. In the present embodiment, the center position coordinates are used, but of course, the center position coordinates may be used, for example, the upper left coordinates of the region.

次に、ステップSC307では、ステップSC305で保持している特徴量の差分の最小値が所定値より大きくて、かつパターンマッチングのタイムオーバーが起きているかどうか判断する。保持している特徴量の差分の最小値が所定値より小さいか、若しくはタイムオーバーしていない場合はステップSC308へ進み、該最小値が所定値より大きくてタイムオーバーしている場合はステップSC310へ進む。パターンマッチングに時間がかかっても、特徴量の差分が小さいパターンが発生しない場合、追従したい被写体がすでにマッチングを行う範囲にいない可能性が高いといえる。よって、パターンマッチングに制限時間を設けて、特徴量の差分の最小値が所定値より大きくてかつ制限時間をオーバーする場合はマッチングを打ち切るという処理を行う。この制限時間は、保持している特徴量の差分の最小値に応じて可変して、大きいほど早く打ち切るようにしてもよい。   Next, in step SC307, it is determined whether or not the minimum value of the feature amount difference held in step SC305 is larger than a predetermined value and the pattern matching time is over. If the minimum value of the difference between the feature quantities held is smaller than the predetermined value or the time has not exceeded, the process proceeds to step SC308. If the minimum value is larger than the predetermined value and the time has elapsed, the process proceeds to step SC310. Even if pattern matching takes time, if a pattern with a small feature amount difference does not occur, it can be said that there is a high possibility that the subject to be tracked is not already in the matching range. Therefore, a time limit is provided for pattern matching, and when the minimum value of the feature amount difference is larger than a predetermined value and exceeds the time limit, the matching is terminated. This time limit may be varied according to the minimum value of the difference between the feature quantities that are held, and may be terminated earlier as the time is larger.

次にステップSC308では、ステップSC302で行う特徴量の抽出を、マッチング範囲全てに対して行ったかどうかを判断し、行った場合はステップSC309へ進む。行っていない場合はステップSC302へ戻り、ステップSC302からステップSC307で、現在選択している画像信号に対してパターンマッチング処理を継続する。ステップSC309では、パターンマッチングを終了して、最終的に保持した特徴量の差分の最小値が所定値より小さいかどうかを判断し、所定値より小さい場合は処理を終了し、そうでない場合はステップSC310へ進む。特徴量の差分の最小値が所定より小さければ、追従被写体が発見できたとして、図4における追従開始処理を継続する。   Next, in step SC308, it is determined whether or not the feature amount extraction performed in step SC302 has been performed on the entire matching range. If so, the process proceeds to step SC309. If not, the process returns to step SC302, and the pattern matching process is continued for the currently selected image signal in steps SC302 to SC307. In step SC309, the pattern matching is ended, and it is determined whether or not the minimum value of the difference between the feature values finally held is smaller than a predetermined value. If it is smaller than the predetermined value, the process is ended. Proceed to SC310. If the minimum value of the feature amount difference is smaller than a predetermined value, it is determined that a tracking subject has been found, and the tracking start process in FIG. 4 is continued.

また、特徴量の差分の最小値が所定値より大きく、またはマッチングタイムオーバーが発生したときに進むステップSC310では追従被写体を特定できなかったとして、追従不可情報を発行し、処理を終了する。追従不可情報を発行した場合、図4のステップSC205で追従開始処理を中断すると共に、図3のステップSC107で遠隔操作端末20に対して、追従被写体を特定できなかった旨を送信する。   Further, it is determined that the tracking subject cannot be specified in step SC310 that is advanced when the minimum value of the feature amount difference is larger than the predetermined value or when the matching time is over, and the processing is ended. When the follow-up impossible information is issued, the follow-up start process is interrupted at step SC205 in FIG. 4, and at the same time, the fact that the follow-up subject cannot be specified is transmitted to the remote control terminal 20 at step SC107 in FIG.

以上のようにして、選択した過去画像に対してパターンマッチングを行い、追従被写体が存在するとされる位置情報を取得する。パターンマッチングを過去画像に対して時系列順に順次行うことで、現在撮像している画像において追従被写体が存在する位置情報を取得する
次に、図3のステップSC109の追従継続処理について、図6のフローチャートを用いて説明する。
As described above, pattern matching is performed on the selected past image, and position information indicating that the tracking subject is present is acquired. By sequentially performing pattern matching on the past image in time series order, position information where the tracking subject is present in the currently captured image is acquired. Next, the tracking continuation processing in step SC109 in FIG. This will be described with reference to a flowchart.

ステップSC401では、図4の追従開始処理におけるステップSC208で保持した追従用画像から特徴量を抽出して、ステップSC402へ進む。ステップSC402では、同様に図4の追従開始処理におけるステップSC208か、若しくは後述するステップSC412で保持した位置情報から、マッチングを行う範囲の中心位置を限定して、ステップSC403へ進む。前回マッチングが取れた位置情報を中心としてマッチングの範囲を設定することで、より追従被写体の特定を行いやすくする。   In step SC401, a feature amount is extracted from the follow-up image held in step SC208 in the follow-up start process of FIG. 4, and the process proceeds to step SC402. In Step SC402, similarly, the center position of the range to be matched is limited from Step SC208 in the follow-up start process of FIG. 4 or the position information held in Step SC412 described later, and the process proceeds to Step SC403. By setting the matching range around the position information that was matched last time, it becomes easier to identify the tracking subject.

ステップSC403では、ステップSC402で設定したマッチング範囲の画像信号から、ステップSC401で使用した追従用画像と同様のサイズの画像を切り出すと共に、特徴量を抽出してステップSC404へ進む。ステップSC404では、ステップSC401とステップSC403で抽出した特徴量の差分を計算して、ステップSC405へ進む。ステップSC405では、ここまで計算した特徴量の差分が、現在保持している特徴量の差分の値より小さいかどうかを判断し、小さい場合はステップSC406へ進み、そうでない場合はステップSC408へ進む。ステップSC406では、計算した特徴量の差分が最も小さいとして、この値を保持してステップSC407へ進む。ステップSC407では、ステップSC403で切り出した画像信号の位置情報を保持して、ステップSC408へ進む。   In step SC403, an image having the same size as the follow-up image used in step SC401 is cut out from the image signal in the matching range set in step SC402, and a feature amount is extracted, and the process proceeds to step SC404. In step SC404, the difference between the feature amounts extracted in steps SC401 and SC403 is calculated, and the process proceeds to step SC405. In step SC405, it is determined whether or not the difference between the feature amounts calculated so far is smaller than the value of the feature amount difference currently held. If smaller, the procedure proceeds to step SC406. Otherwise, the procedure proceeds to step SC408. In step SC406, it is determined that the difference between the calculated feature values is the smallest, and this value is held, and the process proceeds to step SC407. In step SC407, the position information of the image signal cut out in step SC403 is held, and the process proceeds to step SC408.

なお、ステップSC405の判断時に、ステップSC406で未だ一度も特徴量の差分の最小値を保持していない場合は、必ずステップSC406へ進むようにする。ステップSC408では、ステップSC406で保持している特徴量の差分の最小値が所定値より大きくて、かつパターンマッチングのタイムオーバーが起きているかどうか判断する。保持している特徴量の差分の最小値が所定値より小さいか、若しくはタイムオーバーしていない場合はステップSC409へ進み、該最小値が所定値より大きくてタイムオーバーしている場合はステップSC414へ進む。ステップSC408の処理の詳細は、図5のステップSC307で説明したものと同様なので省略する。   Note that if the minimum value of the feature amount difference has not yet been held in step SC406 at the time of determination in step SC405, the process always proceeds to step SC406. In step SC408, it is determined whether or not the minimum value of the feature amount difference held in step SC406 is greater than a predetermined value and the pattern matching time is over. If the minimum value of the difference between the feature quantities held is smaller than the predetermined value or the time has not exceeded, the process proceeds to step SC409. If the minimum value is larger than the predetermined value and the time has elapsed, the process proceeds to step SC414. Details of the process in step SC408 are the same as those described in step SC307 in FIG.

ステップSC409では、ステップSC402で設定したマッチング範囲全てに対して、マッチングを行ったかどうかを判断し、行った場合はステップSC410へ進み、行っていない場合はステップSC403へ戻り、パターンマッチングの処理を継続する。ステップSC410では、パターンマッチングの結果、ステップSC406で保持した特徴量の差分の最小値が所定値より小さいかどうかを判断し、所定値より小さい場合は、ステップSC411に進み、そうでない場合はステップSC414へ進む。ステップSC411では、追従被写体が特定できたとして、ステップSC407で保持した画像信号の位置情報を中心とした範囲に追従領域を設定してステップSC412へ進む。   In step SC409, it is determined whether or not matching has been performed for all the matching ranges set in step SC402. If so, the process proceeds to step SC410. If not, the process returns to step SC403 to continue the pattern matching process. To do. In step SC410, it is determined whether or not the minimum value of the feature amount difference held in step SC406 is smaller than a predetermined value as a result of pattern matching. If smaller than the predetermined value, the process proceeds to step SC411. Proceed to In step SC411, assuming that the tracking subject has been identified, the tracking area is set in a range centered on the position information of the image signal held in step SC407, and the flow proceeds to step SC412.

ステップSC412では、ステップSC411で設定した追従領域の位置情報を保持しステップSC413へ進む。ステップSC412で保持した座標情報は、次回の追従継続処理時のステップSC402で使用する。ステップSC413では追従不可カウンタをクリアして処理を終了する。追従不可カウンタについては、後述するステップSC414からステップSC417で説明する。   In step SC412, the position information of the tracking area set in step SC411 is held, and the process proceeds to step SC413. The coordinate information held in step SC412 is used in step SC402 in the next follow-up continuation process. In step SC413, the follow-up impossible counter is cleared and the process is terminated. The follow-up impossibility counter will be described in steps SC414 to SC417 described later.

このように、順次撮像する画像信号に対してパターンマッチングを繰り返し行うことで、順次追従領域を特定し、追従を継続する。次に、特徴量の差分の最小値が所定値より大きい場合、若しくはマッチングタイムオーバーした場合に進むステップSC414では、追従不可カウンタを加算してステップSC415へ進む。この追従不可カウンタとは、追従継続処理を行った際に追従被写体を連続で特定できなかった回数をカウントするものである。ステップSC415では、追従不可カウンタが所定回数以上かどうかを判断し、所定回数以上である場合はステップSC416へ進み、そうでない場合はステップSC417へ進む。   In this way, by repeatedly performing pattern matching on sequentially captured image signals, the tracking area is sequentially identified and tracking is continued. Next, in step SC414 which proceeds when the minimum value of the feature amount difference is larger than the predetermined value or when the matching time is exceeded, the follow-up impossible counter is added and the process proceeds to step SC415. The follow-up impossible counter is used to count the number of times that the follow-up subject cannot be identified continuously when the follow-up process is performed. In step SC415, it is determined whether or not the follow-up impossible counter is greater than or equal to a predetermined number. If the counter is greater than or equal to the predetermined number, the process proceeds to step SC416, and if not, the process proceeds to step SC417.

ステップSC416では、追従被写体を特定できなかったとして、追従不可情報を発行して処理を終了する。追従不可情報が発行されたら、図3のステップSC111によって追従の停止処理を行う。ステップSC417では、追従制御一時停止という状態に変更し、処理を終了する。追従制御一時停止状態とは、追従制御領域に対してカメラ制御を行わない状態であり、AFやAEの制御を一時的に停止する。   In step SC416, it is determined that the tracking subject cannot be specified, and tracking impossible information is issued and the process is terminated. When follow-up disable information is issued, follow-up stop processing is performed at step SC111 in FIG. In step SC417, it changes to the state of follow-up control temporary stop, and a process is complete | finished. The follow-up control pause state is a state in which camera control is not performed on the follow-up control area, and AF and AE controls are temporarily stopped.

ここで、ステップSC414からステップSC417について詳細に説明する。追従継続処理時は、追従被写体が一時的に特定できなくなったとしても再度特定できるようになる可能性がある。例えば、追従していた被写体が一度フレームアウトした後に再度フレームインしてきた場合や、追従していた被写体の前に他の被写体が横切った場合などが挙げられる。このような場合を想定して、一時的に被写体追従が出来なくなったとしても、再度被写体が特定できる待ち時間を持つようにする。この待ち時間が追従不可カウンタであり、この追従不可カウンタが所定回数以上になるまでは、ステップSC416で追従不可情報を発行しないようにする。   Here, step SC414 to step SC417 will be described in detail. During the follow-up continuation process, even if the follow-up subject cannot be temporarily specified, there is a possibility that it can be specified again. For example, there may be a case where the subject that has been tracked once frames out and then enters the frame again, or a case where another subject crosses before the subject that has been following. Assuming such a case, even if the subject cannot be tracked temporarily, a waiting time for specifying the subject again is set. This waiting time is a follow-up impossible counter, and the follow-up impossible information is not issued in step SC416 until the follow-up impossible counter reaches a predetermined number of times or more.

ただし、追従被写体が特定できていない場合は、現在設定されている追従領域に対してAFやAE制御を行うわけにはいかないので、ステップSC417でこれら制御を一時的に停止する。このようにして、一時的に追従被写体を特定できなくなったとしても、再度追従被写体が現れた時に追従を継続できるようにする。   However, if the tracking subject has not been specified, AF and AE control cannot be performed on the currently set tracking area, so these controls are temporarily stopped in step SC417. In this way, even if it becomes impossible to specify the tracking subject temporarily, the tracking can be continued when the tracking subject appears again.

以上説明したように、カメラ10は遠隔操作端末20に対して撮像した画像信号だけでなく画像信号の送信時刻情報を送信し、遠隔操作端末20は、該画像信号を表示する度に該送信時刻情報をカメラ10にそのまま送り返す。カメラ10は、遠隔操作端末20から送信時刻情報を受信した時点の時刻情報と、受信した送信時刻情報の差分から通信遅延時間を常に計測しておき、少なくともこの通信遅延時間の分だけ、SDRAM166に撮像した画像信号を保持しておく。システム制御部14は、遠隔操作端末20からの追従指示によって追従制御を行う場合、遠隔側システム制御部21によって生成された追従指示が行われた座標情報を受信する。システム制御部14は、座標情報を受信した時点の通信遅延時間を基に、SDRAM166に保持していた過去画像から遠隔操作端末20で追従指示が行われた時点に、遠隔側表示部243に表示されていた画像を選択する。   As described above, the camera 10 transmits not only the captured image signal but also the transmission time information of the image signal to the remote operation terminal 20, and the remote operation terminal 20 displays the transmission time every time the image signal is displayed. The information is sent back to the camera 10 as it is. The camera 10 always measures the communication delay time from the difference between the time information when the transmission time information is received from the remote control terminal 20 and the received transmission time information, and at least the communication delay time is stored in the SDRAM 166. The captured image signal is held. When performing the follow-up control by the follow-up instruction from the remote operation terminal 20, the system control unit 14 receives the coordinate information on which the follow-up instruction is generated generated by the remote-side system control unit 21. Based on the communication delay time when the coordinate information is received, the system control unit 14 displays on the remote display unit 243 when a follow-up instruction is given from the past image held in the SDRAM 166 by the remote operation terminal 20. Select the image that was being used.

さらに、追従画像生成部141によって、選択した画像から受信した座標情報を中心とした所定領域を追従被写体の画像(追従用画像)として生成する。システム制御部14は、この追従被写体の画像を基に追従信号処理部125及び被写体領域検出部126によって現時点で撮像している画像信号から追従被写体を特定することで追従制御を行う。また、現時点で撮像している画像信号から追従被写体を特定するために、追従被写体の画像を生成した過去の画像信号から、時系列順に順次、保持した過去画像と追従被写体の画像とのパターンマッチングを行う。   Further, the follow-up image generation unit 141 generates a predetermined area centered on the coordinate information received from the selected image as an image of the follow-up subject (follow-up image). The system control unit 14 performs the tracking control by specifying the tracking subject from the image signal currently captured by the tracking signal processing unit 125 and the subject area detection unit 126 based on the image of the tracking subject. In addition, in order to identify the tracking subject from the image signal currently captured, pattern matching is performed between the past image and the tracking subject image that have been retained sequentially from the past image signal that generated the tracking subject image. I do.

このように、追従被写体の位置情報のみで遠隔操作端末20から追従指示をするのではなく、通信遅延時間を考慮して追従被写体の特定を行う。これによって、通信遅延の影響で使用者が追従を行いたい被写体以外を誤追尾してしまうことや、使用者が通信タイムラグを考慮した位置に対して追従指示を行わななけらばならない問題が改善する。この結果、通信遅延に依らず、使用者が追従したい被写体をより正確に追従することが可能となり、また使用者が通信遅延を気にすることなく追従指示を行うことができる。   As described above, the follow-up subject is specified in consideration of the communication delay time, instead of instructing the follow-up from the remote operation terminal 20 only by the position information of the follow-up subject. This improves the problem that the user mistracks the subject other than the subject that the user wants to follow due to the communication delay, and the user must give a follow instruction to the position considering the communication time lag. To do. As a result, the subject that the user wants to follow can be followed more accurately regardless of the communication delay, and the user can issue a follow-up instruction without worrying about the communication delay.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。
(他の実施形態)
本発明の目的は以下のようにしても達成できる。すなわち、前述した実施形態の機能を実現するための手順が記述されたソフトウェアのプログラムコードを記録した記憶媒体を、撮像装置および遠隔操作端末に供給する。そしてその撮像装置および遠隔操作端末のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行するのである。
Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included.
(Other embodiments)
The object of the present invention can also be achieved as follows. That is, a storage medium in which a program code of software in which a procedure for realizing the functions of the above-described embodiments is described is supplied to the imaging device and the remote operation terminal. And the computer (or CPU, MPU, etc.) of the imaging device and the remote control terminal reads out and executes the program code stored in the storage medium.

この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体およびプログラムは本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the storage medium and program storing the program code constitute the present invention.

また、プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどが挙げられる。また、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD−R、磁気テープ、不揮発性のメモリカード、ROM等も用いることができる。   Examples of the storage medium for supplying the program code include a flexible disk, a hard disk, an optical disk, and a magneto-optical disk. Further, a CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD-R, magnetic tape, nonvolatile memory card, ROM, or the like can also be used.

また、コンピュータが読み出したプログラムコードを実行可能とすることにより、前述した実施形態の機能が実現される。さらに、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。   Moreover, the function of the above-described embodiment is realized by making the program code read by the computer executable. Further, based on the instruction of the program code, an OS (operating system) or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments may be realized by the processing. included.

更に、以下の場合も含まれる。まず記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う。   Furthermore, the following cases are also included. First, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing.

本発明は、コンパクトデジタルカメラ、一眼レフカメラ、ビデオカメラなどの撮像装置と、携帯電話、スマートフォン、携帯ゲーム機などの遠隔操作端末とからなるカメラシステムに好適に利用できる。   The present invention can be suitably used for a camera system including an imaging device such as a compact digital camera, a single-lens reflex camera, and a video camera and a remote operation terminal such as a mobile phone, a smartphone, and a portable game machine.

10‥‥‥撮像装置
121‥‥撮像素子
125‥‥追従信号処理部
126‥‥被写体領域検出部
14‥‥‥システム制御部
141‥‥追従画像生成部
166‥‥SDRAM
169‥‥撮像側通信部
20‥‥‥遠隔操作端末
21‥‥‥遠隔側システム制御部
22‥‥‥遠隔側操作部
241‥‥遠隔側通信部
243‥‥遠隔側表示部
244‥‥遠隔側SDRAM
DESCRIPTION OF SYMBOLS 10 ... Imaging device 121 ... Imaging element 125 ... Tracking signal processing part 126 ... Subject area detection part 14 ... System control part 141 ... Tracking image generation part 166 ... SDRAM
169 ... Imaging-side communication unit 20 ... Remote operation terminal 21 ... Remote-side system control unit 22 ... Remote-side operation unit 241 ... Remote-side communication unit 243 ... Remote-side display unit 244 ... Remote-side SDRAM

Claims (13)

遠隔操作端末により外部から制御される撮像装置であって、
光学系を介した被写体像を光電変換して画像信号を生成する撮像手段と、
生成された前記画像信号および前記画像信号を前記遠隔操作端末に送信する際に付与される付与情報を送信するとともに、前記遠隔操作端末の表示部に表示中の画像上で被写体が指定されたとき、前記遠隔操作端末から前記被写体が指定された位置情報を受信するとともに、前記表示部に前記画像信号に対応する画像が表示されたとき、前記遠隔操作端末から前記画像信号に付与された前記付与情報を受信する通信手段と、
受信した前記付与情報に基づいて通信遅延時間を算出する算出手段と、
算出された前記通信遅延時間に基づいて前記撮像手段により生成された画像信号を所定期間保持する保持手段と、
前記位置情報を受信したときに算出された前記通信遅延時間に基づいて前記保持手段に保持されている画像信号を選択する選択手段と、
前記選択された画像信号と、受信した前記位置情報に基づいて、現在の画像信号から前記被写体の第1の追従領域を特定する特定手段と、
を有することを特徴とする撮像装置。
An imaging device controlled from the outside by a remote operation terminal,
Imaging means for photoelectrically converting a subject image via an optical system to generate an image signal;
When the generated image signal and the grant information given when transmitting the image signal to the remote control terminal are transmitted, and the subject is specified on the image displayed on the display unit of the remote control terminal Receiving the position information specifying the subject from the remote operation terminal and providing the image signal from the remote operation terminal when an image corresponding to the image signal is displayed on the display unit A communication means for receiving information;
Calculating means for calculating a communication delay time based on the received grant information;
Holding means for holding an image signal generated by the imaging means based on the calculated communication delay time for a predetermined period;
Selection means for selecting an image signal held in the holding means based on the communication delay time calculated when the position information is received;
Identification means for identifying a first tracking area of the subject from the current image signal based on the selected image signal and the received position information;
An imaging device comprising:
前記付与情報は、前記画像信号を前記遠隔操作端末に送信する送信時刻に関する情報であることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the assignment information is information relating to a transmission time at which the image signal is transmitted to the remote operation terminal. 前記保持手段は、少なくとも通信遅延時間分の画像信号を保持することを特徴とする請求項1または2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the holding unit holds an image signal corresponding to at least a communication delay time. 前記選択手段は、前記保持手段により保持されている画像信号のうち、前記位置情報を受信したときに算出された通信遅延時間だけ過去の時点に最も近い画像信号を選択することを特徴とする請求項1から3のいずれか1項に記載の撮像装置。   The selection unit selects an image signal that is closest to a past time point by a communication delay time calculated when the position information is received, from among the image signals held by the holding unit. Item 4. The imaging device according to any one of Items 1 to 3. 前記特定手段は、前記保持手段により保持されている画像信号のうち、前記選択された画像信号から時系列順に順次、前記被写体の第2の追従領域を特定していくことで、前記現在の画像信号から前記第1の追従領域を特定することを特徴とする請求項1から4のいずれか1項に記載の撮像装置。   The specifying unit specifies the second tracking region of the subject sequentially from the selected image signal in time series among the image signals held by the holding unit, so that the current image The imaging apparatus according to claim 1, wherein the first tracking area is specified from a signal. 撮像装置を外部から制御する遠隔操作端末であって、
前記撮像装置から受信した画像信号に対応する画像を表示する表示部と、
前記表示部に表示中の画像上で被写体が指定されたとき、前記被写体が指定された位置に関する位置情報を生成する生成手段と、
前記撮像装置から前記画像信号および前記画像信号に付与された付与情報を受信するとともに、前記表示部に表示中の画像上で被写体が指定されたとき、前記位置情報を前記撮像装置へ送信するとともに、前記表示部に前記画像信号に対応する画像が表示されたとき、前記画像信号に付与された前記付与情報を前記撮像装置へ送信する通信手段と、を有することを特徴とする遠隔操作端末。
A remote control terminal for controlling the imaging device from the outside,
A display unit for displaying an image corresponding to the image signal received from the imaging device;
Generating means for generating position information related to a position where the subject is designated when a subject is designated on the image being displayed on the display unit;
In addition to receiving the image signal and the attached information added to the image signal from the imaging device, and when the subject is specified on the image being displayed on the display unit, the position information is transmitted to the imaging device A remote operation terminal comprising: a communication unit configured to transmit the addition information added to the image signal to the imaging device when an image corresponding to the image signal is displayed on the display unit.
前記付与情報は、前記撮像装置から前記画像信号が送信される送信時刻に関する情報であり、
前記通信手段は、前記撮像装置から前記送信時刻に関する情報が付与された前記画像信号を受信し、
前記遠隔操作端末は、前記表示部が前記画像信号に対応する画像を表示したとき、前記通信手段から前記画像信号に付与された前記送信時刻に関する情報を前記撮像装置に対して送信し返すことを特徴とする請求項6に記載の遠隔操作端末。
The attached information is information related to a transmission time at which the image signal is transmitted from the imaging device,
The communication means receives the image signal to which information on the transmission time is given from the imaging device,
When the display unit displays an image corresponding to the image signal, the remote control terminal transmits information about the transmission time given to the image signal from the communication unit to the imaging device. The remote control terminal according to claim 6, wherein:
撮像装置と、前記撮像装置を外部から制御する遠隔操作端末と、からなるカメラシステムであって、
前記撮像装置に設けられ、光学系を介した被写体像を光電変換して画像信号を生成する撮像手段と、
前記撮像装置に設けられ、生成された前記画像信号および前記画像信号を前記遠隔操作端末に送信する際に付与される付与情報を送信する第1の通信手段と、
前記遠隔操作端末に設けられ、前記画像信号および前記付与情報を受信する第2の通信手段と、
前記遠隔操作端末に設けられ、前記撮像装置から受信した前記画像信号に対応する画像を表示する表示部と、
前記遠隔操作端末に設けられ、前記表示部に表示中の画像上で被写体が指定されたとき、前記被写体が指定された位置に関する位置情報を生成する生成手段と、
前記撮像装置に設けられ、前記遠隔操作端末の前記表示部に前記画像が表示されたとき、前記第2の通信手段から送信される前記付与情報に基づいて通信遅延時間を算出する算出手段と、
前記撮像装置に設けられ、算出された前記通信遅延時間に基づいて前記撮像手段により生成された画像信号を所定期間保持する保持手段と、
前記撮像装置に設けられ、前記遠隔操作端末の前記表示部に表示中の画像上で被写体が指定されたとき、前記第2の通信手段から送信される前記被写体の位置情報を受信したときに算出された前記通信遅延時間に基づいて前記保持手段に保持されている画像信号を選択する選択手段と、
前記撮像装置に設けられ、前記選択された画像信号と、受信した前記位置情報に基づいて、現在の画像信号から前記被写体の第1の追従領域を特定する特定手段と、
を有することを特徴とするカメラシステム。
A camera system comprising an imaging device and a remote operation terminal that controls the imaging device from the outside,
An image pickup means provided in the image pickup apparatus for photoelectrically converting a subject image via an optical system to generate an image signal;
A first communication unit that is provided in the imaging apparatus and that transmits the generated image signal and grant information that is given when the image signal is transmitted to the remote operation terminal;
A second communication means provided in the remote control terminal for receiving the image signal and the grant information;
A display unit provided in the remote operation terminal and displaying an image corresponding to the image signal received from the imaging device;
A generating unit that is provided in the remote operation terminal and generates position information about a position where the subject is designated when a subject is designated on an image being displayed on the display unit;
A calculating unit that is provided in the imaging device and calculates a communication delay time based on the provision information transmitted from the second communication unit when the image is displayed on the display unit of the remote operation terminal;
A holding unit that is provided in the imaging apparatus and holds an image signal generated by the imaging unit based on the calculated communication delay time;
Calculated when the subject position information transmitted from the second communication means is received when the subject is specified on the image displayed on the display unit of the remote control terminal provided in the imaging device Selecting means for selecting an image signal held in the holding means based on the communication delay time,
A specifying unit that is provided in the imaging device and specifies a first tracking region of the subject from a current image signal based on the selected image signal and the received position information;
A camera system comprising:
前記付与情報は、前記画像信号を前記撮像装置から前記遠隔操作端末に送信する送信時刻に関する情報であり、
前記撮像装置は、前記第1の通信手段により前記画像信号を送信する際に、前記送信時刻に関する情報を付与して送信し、
前記遠隔操作端末は、前記表示部が前記画像信号に対応する画像を表示したとき、前記第2の通信手段から前記画像信号に付与された前記送信時刻に関する情報を前記撮像装置に対して送信し返し、
前記算出手段は、
前記撮像装置が前記第2の通信手段から前記送信時刻に関する情報を受信した時刻と、前記送信時刻との差分から通信遅延時間を算出することを特徴とする請求項8に記載のカメラシステム。
The grant information is information related to a transmission time at which the image signal is transmitted from the imaging device to the remote operation terminal;
When the image pickup device transmits the image signal by the first communication unit, the image pickup device transmits the information related to the transmission time,
When the display unit displays an image corresponding to the image signal, the remote control terminal transmits information on the transmission time given to the image signal from the second communication unit to the imaging device. Return,
The calculating means includes
9. The camera system according to claim 8, wherein a communication delay time is calculated from a difference between a time at which the imaging apparatus receives information on the transmission time from the second communication unit and the transmission time.
光学系を介した被写体像を光電変換して画像信号を生成する撮像手段を有し、遠隔操作端末により外部から制御される撮像装置の制御方法であって、
生成された前記画像信号および前記画像信号を前記遠隔操作端末に送信する際に付与される付与情報を送信するステップと、
前記遠隔操作端末の表示部に表示中の画像上で被写体が指定されたとき、前記遠隔操作端末から前記被写体が指定された位置情報を受信するステップと、
前記表示部に前記画像信号に対応する画像が表示されたとき、前記遠隔操作端末から前記画像信号に付与された前記付与情報を受信するステップと、
受信した前記付与情報に基づいて通信遅延時間を算出するステップと、
算出された前記通信遅延時間に基づいて前記撮像手段により生成された画像信号を保持手段に所定期間保持させるステップと、
前記位置情報を受信したときに算出された前記通信遅延時間に基づいて前記保持手段に保持されている画像信号を選択するステップと、
前記選択された画像信号と、受信した前記位置情報に基づいて、現在の画像信号から前記被写体の第1の追従領域を特定するステップと、
を有することを特徴とする撮像装置の制御方法。
A control method for an image pickup apparatus having an image pickup means for photoelectrically converting a subject image via an optical system to generate an image signal and controlled from the outside by a remote operation terminal,
Transmitting the generated image signal and grant information given when transmitting the image signal to the remote control terminal;
Receiving a position information specifying the subject from the remote operation terminal when a subject is designated on the image being displayed on the display unit of the remote operation terminal;
When the image corresponding to the image signal is displayed on the display unit, receiving the attachment information attached to the image signal from the remote operation terminal;
Calculating a communication delay time based on the received grant information;
Holding the image signal generated by the imaging unit based on the calculated communication delay time in a holding unit for a predetermined period;
Selecting an image signal held in the holding means based on the communication delay time calculated when the position information is received;
Identifying a first tracking region of the subject from a current image signal based on the selected image signal and the received position information;
A method for controlling an imaging apparatus, comprising:
光学系を介した被写体像を光電変換して画像信号を生成する撮像手段を有し、遠隔操作端末により外部から制御される撮像装置に、
生成された前記画像信号および前記画像信号を前記遠隔操作端末に送信する際に付与される付与情報を送信するステップと、
前記遠隔操作端末の表示部に表示中の画像上で被写体が指定されたとき、前記遠隔操作端末から前記被写体が指定された位置情報を受信するステップと、
前記表示部に前記画像信号に対応する画像が表示されたとき、前記遠隔操作端末から前記画像信号に付与された前記付与情報を受信するステップと、
受信した前記付与情報に基づいて通信遅延時間を算出するステップと、
算出された前記通信遅延時間に基づいて前記撮像手段により生成された画像信号を保持手段に所定期間保持させるステップと、
前記位置情報を受信したときに算出された前記通信遅延時間に基づいて前記保持手段に保持されている画像信号を選択するステップと、
前記選択された画像信号と、受信した前記位置情報に基づいて、現在の画像信号から前記被写体の第1の追従領域を特定するステップと、
を実行させることを特徴とする撮像装置の制御プログラム。
An imaging device that has an imaging unit that photoelectrically converts a subject image via an optical system to generate an image signal and is controlled from the outside by a remote operation terminal,
Transmitting the generated image signal and grant information given when transmitting the image signal to the remote control terminal;
Receiving a position information specifying the subject from the remote operation terminal when a subject is designated on the image being displayed on the display unit of the remote operation terminal;
When the image corresponding to the image signal is displayed on the display unit, receiving the attachment information attached to the image signal from the remote operation terminal;
Calculating a communication delay time based on the received grant information;
Holding the image signal generated by the imaging unit based on the calculated communication delay time in a holding unit for a predetermined period;
Selecting an image signal held in the holding means based on the communication delay time calculated when the position information is received;
Identifying a first tracking region of the subject from a current image signal based on the selected image signal and the received position information;
A control program for an imaging apparatus, characterized in that
撮像装置を外部から制御する遠隔操作端末の制御方法であって、
前記撮像装置により生成された画像信号および前記画像信号に付与された付与情報を受信するステップと、
前記撮像装置から受信した前記画像信号に対応する画像を表示部に表示するステップと、
前記表示部に表示中の画像上で被写体が指定されたとき、前記被写体が指定された位置に関する位置情報を生成するステップと、
前記表示部に表示中の画像上で被写体が指定されたとき、前記位置情報を前記撮像装置へ送信するステップと、
前記表示部に前記画像信号に対応する画像が表示されたとき、前記画像信号に付与された前記付与情報を前記撮像装置へ送信するステップと、を有することを特徴とする遠隔操作端末の制御方法。
A control method of a remote control terminal for controlling an imaging device from the outside,
Receiving the image signal generated by the imaging device and the attachment information attached to the image signal;
Displaying an image corresponding to the image signal received from the imaging device on a display unit;
When a subject is designated on the image being displayed on the display unit, generating position information relating to the designated position of the subject;
A step of transmitting the position information to the imaging device when a subject is designated on an image being displayed on the display unit;
A method of controlling the remote operation terminal, comprising: transmitting the attachment information added to the image signal to the imaging device when an image corresponding to the image signal is displayed on the display unit. .
撮像装置を外部から制御する遠隔操作端末に、
前記撮像装置により生成された画像信号および前記画像信号に付与された付与情報を受信するステップと、
前記撮像装置から受信した前記画像信号に対応する画像を表示部に表示するステップと、
前記表示部に表示中の画像上で被写体が指定されたとき、前記被写体が指定された位置に関する位置情報を生成するステップと、
前記表示部に表示中の画像上で被写体が指定されたとき、前記位置情報を前記撮像装置へ送信するステップと、
前記表示部に前記画像信号に対応する画像が表示されたとき、前記画像信号に付与された前記付与情報を前記撮像装置へ送信するステップと、を実行させることを特徴とする遠隔操作端末の制御プログラム。
To the remote control terminal that controls the imaging device from the outside,
Receiving the image signal generated by the imaging device and the attachment information attached to the image signal;
Displaying an image corresponding to the image signal received from the imaging device on a display unit;
When a subject is designated on the image being displayed on the display unit, generating position information relating to the designated position of the subject;
A step of transmitting the position information to the imaging device when a subject is designated on an image being displayed on the display unit;
And a step of transmitting to the imaging device the attached information given to the image signal when an image corresponding to the image signal is displayed on the display unit. program.
JP2013011574A 2013-01-17 2013-01-25 IMAGING DEVICE, REMOTE OPERATION TERMINAL, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD AND PROGRAM, REMOTE OPERATION TERMINAL CONTROL METHOD AND PROGRAM Expired - Fee Related JP6207162B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2013011574A JP6207162B2 (en) 2013-01-25 2013-01-25 IMAGING DEVICE, REMOTE OPERATION TERMINAL, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD AND PROGRAM, REMOTE OPERATION TERMINAL CONTROL METHOD AND PROGRAM
EP14150839.0A EP2757772A3 (en) 2013-01-17 2014-01-10 Image pickup apparatus, remote control apparatus, and methods of controlling image pickup apparatus and remote control apparatus
EP22177591.9A EP4093019A1 (en) 2013-01-17 2014-01-10 Image pickup apparatus, remote control apparatus, and methods of controlling image pickup apparatus and remote control apparatus
US14/155,427 US20140198220A1 (en) 2013-01-17 2014-01-15 Image pickup apparatus, remote control apparatus, and methods of controlling image pickup apparatus and remote control apparatus
CN201710343051.8A CN107277345B (en) 2013-01-17 2014-01-17 Image pickup apparatus, control method thereof, remote control apparatus, and control method thereof
CN201410023015.XA CN103945112B (en) 2013-01-17 2014-01-17 Camera head and its control method, remote control and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013011574A JP6207162B2 (en) 2013-01-25 2013-01-25 IMAGING DEVICE, REMOTE OPERATION TERMINAL, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD AND PROGRAM, REMOTE OPERATION TERMINAL CONTROL METHOD AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2014143619A true JP2014143619A (en) 2014-08-07
JP6207162B2 JP6207162B2 (en) 2017-10-04

Family

ID=51424576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013011574A Expired - Fee Related JP6207162B2 (en) 2013-01-17 2013-01-25 IMAGING DEVICE, REMOTE OPERATION TERMINAL, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD AND PROGRAM, REMOTE OPERATION TERMINAL CONTROL METHOD AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6207162B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014206583A (en) * 2013-04-11 2014-10-30 オリンパス株式会社 Imaging device, focus adjustment system, focus instruction device, focus adjustment method and program
CN110888428A (en) * 2018-09-06 2020-03-17 丰田自动车株式会社 Mobile robot, remote terminal, computer-readable medium, control system, control method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017160327A (en) 2016-03-09 2017-09-14 信越化学工業株式会社 Volatile composition

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006325150A (en) * 2005-05-20 2006-11-30 Canon Inc Method, system and apparatus for imaging
JP2011233133A (en) * 2010-04-09 2011-11-17 Miyake Inc Shoplifting preventing system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006325150A (en) * 2005-05-20 2006-11-30 Canon Inc Method, system and apparatus for imaging
JP2011233133A (en) * 2010-04-09 2011-11-17 Miyake Inc Shoplifting preventing system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014206583A (en) * 2013-04-11 2014-10-30 オリンパス株式会社 Imaging device, focus adjustment system, focus instruction device, focus adjustment method and program
CN110888428A (en) * 2018-09-06 2020-03-17 丰田自动车株式会社 Mobile robot, remote terminal, computer-readable medium, control system, control method
CN110888428B (en) * 2018-09-06 2023-05-09 丰田自动车株式会社 Mobile robot, remote terminal, computer readable medium, control system, and control method

Also Published As

Publication number Publication date
JP6207162B2 (en) 2017-10-04

Similar Documents

Publication Publication Date Title
CN107277345B (en) Image pickup apparatus, control method thereof, remote control apparatus, and control method thereof
JP5954336B2 (en) Image processing apparatus, image processing method, and recording medium
KR100914084B1 (en) Image capture device and image capture method
CN102262334B (en) Imaging device, imaging system and imaging apparatus control method
CN100559259C (en) Carry out the imaging device and the control method thereof of focusing
US9398206B2 (en) Focus adjustment apparatus, focus adjustment method and program, and imaging apparatus including focus adjustment apparatus
US10264173B2 (en) Image capturing apparatus and control method thereof, and storage medium
JP5623254B2 (en) Imaging apparatus and control method thereof
US8681258B2 (en) Imaging system, imaging apparatus, interchangeable lens, method of controlling imaging system, and program
US10163222B2 (en) Image capturing apparatus, tracking device, control method, and storage medium
JP5743514B2 (en) Imaging apparatus, control method thereof, and program
US9918004B2 (en) Camera body capable of driving an image sensor along an optical axis in response to a change in an optical state of an object image
JP6207162B2 (en) IMAGING DEVICE, REMOTE OPERATION TERMINAL, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD AND PROGRAM, REMOTE OPERATION TERMINAL CONTROL METHOD AND PROGRAM
JP6198397B2 (en) IMAGING DEVICE, REMOTE OPERATION TERMINAL, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD, REMOTE OPERATION TERMINAL CONTROL METHOD
JP6152805B2 (en) Imaging apparatus, control method, and program
US9467615B2 (en) Imaging apparatus including dynamic image focus detection
JP2013242408A (en) Imaging device and control method of the same
US20140226023A1 (en) Imaging apparatus, control method, and program
JP5938268B2 (en) Imaging apparatus and control method thereof
WO2021161959A1 (en) Information processing device, information processing method, information processing program, imaging device, imaging device control method, control program, and imaging system
WO2022209341A1 (en) Imaging device, focus control method, and program
WO2022209342A1 (en) Imaging device, focus control method, and program
JP5733552B2 (en) Imaging apparatus, imaging method, and program
JP2016219984A (en) Imaging device, imaging method, and program
JP2006254191A (en) Electronic camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170905

R151 Written notification of patent or utility model registration

Ref document number: 6207162

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees