JP7219915B2 - Tracking lighting device and lighting tracking system - Google Patents

Tracking lighting device and lighting tracking system Download PDF

Info

Publication number
JP7219915B2
JP7219915B2 JP2019031663A JP2019031663A JP7219915B2 JP 7219915 B2 JP7219915 B2 JP 7219915B2 JP 2019031663 A JP2019031663 A JP 2019031663A JP 2019031663 A JP2019031663 A JP 2019031663A JP 7219915 B2 JP7219915 B2 JP 7219915B2
Authority
JP
Japan
Prior art keywords
tracking
target
lighting
likelihood
rectangle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019031663A
Other languages
Japanese (ja)
Other versions
JP2020136213A (en
Inventor
靖 金澤
祐真 原田
俊男 清須
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyohashi University of Technology NUC
Original Assignee
Toyohashi University of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyohashi University of Technology NUC filed Critical Toyohashi University of Technology NUC
Priority to JP2019031663A priority Critical patent/JP7219915B2/en
Publication of JP2020136213A publication Critical patent/JP2020136213A/en
Application granted granted Critical
Publication of JP7219915B2 publication Critical patent/JP7219915B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Description

本発明は、追尾型照明装置および照明追尾システムに関し、特に、室内における披露宴会場などで特定人物等を追尾しつつ照明するための装置と、室内における会場内で特定人物に対する照明を追尾させるためのシステムに関するものである。 The present invention relates to a tracking lighting device and a lighting tracking system, and more particularly, to a device for lighting while tracking a specific person in an indoor reception hall, etc., and a device for tracking lighting for a specific person in an indoor venue. It is about the system.

移動する人物等の追尾対象物を追尾する技術は、監視システムや自動車の安全技術など、コンピュータビジョンにおいて重要な課題の一つであり、例えば、非剛体をMean Shiftによって追跡する手法(非特許文献1参照)、人物の頭部モデルの尤度を用いてパーティクルフィルタで追跡する手法(非特許文献2および3参照)、または色相やHoGによる外観モデルを用いてパーティクルフィルタで追跡する手法(非特許文献4参照)があった。 Technology for tracking a tracked object such as a moving person is one of the important issues in computer vision, such as surveillance systems and automobile safety technology. 1), a method of tracking with a particle filter using the likelihood of a human head model (see Non-Patent Documents 2 and 3), or a method of tracking with a particle filter using an appearance model by hue or HoG (Non-Patent Reference 4).

Visvanathan Ramesh:“Real-Time Tracking of Non-Rigid Objects using Mean Shift”, Proceedings IEEE Conference on Computer Vision and Pattern Recognition 2000, (2000)Visvanathan Ramesh: “Real-Time Tracking of Non-Rigid Objects using Mean Shift”, Proceedings IEEE Conference on Computer Vision and Pattern Recognition 2000, (2000) 鈴木達也:“環境モデルの導入による人物追跡の安定化”,電子情報通信学会論文誌,Vol.J88-D-II, No.8, pp.1592-1600, (2005)Tatsuya Suzuki: “Stabilization of Human Tracking by Introduction of Environment Model”, Transactions of the Institute of Electronics, Information and Communication Engineers, Vol.J88-D-II, No.8, pp.1592-1600, (2005) 小林貴訓:“パーティクルフィルタとカスケード型識別器の統合による人物三次元追跡”,電子情報通信学会論文誌,Vol.J90-D-IIm, No.8, pp.1-10,(2007)Takanori Kobayashi: "Human 3D Tracking by Integration of Particle Filter and Cascade Classifier", Transactions of the Institute of Electronics, Information and Communication Engineers, Vol.J90-D-IIm, No.8, pp.1-10, (2007) Sangeun Lee: “Human Tracking using Particle Filter with Reliable Appearance Model”, SICE Annual Conference 2013, pp.1418-1424,(2013)Sangeun Lee: “Human Tracking using Particle Filter with Reliable Appearance Model”, SICE Annual Conference 2013, pp.1418-1424,(2013)

しかしながら、非特許文献1に開示される技術は、テンプレートとの距離の算出にピクセル値を用いることから、急激な照明変化に弱く、またオクルージョンに対しても弱いものとなっていた。また、非特許文献2および3に開示される技術は、オクルージョンの影響を小さくすることができるものの、全体として特徴を有する人物を追跡できるものではなく、しかも仮説の評価にピクセル値を用いていることから、急激に照明が変化する環境下ではロストする可能性があった。さらに、非特許文献4に開示される技術は、オクルージョンの影響を小さくすることができる点で非特許文献2および3と同様であるが、特徴を有する人物を追跡するためには、特徴量をその都度構築し直す必要があり、特徴量によっては、急激に照明が変化する環境下ではロストする可能性を有していた。 However, since the technique disclosed in Non-Patent Document 1 uses pixel values to calculate the distance to the template, it is vulnerable to sudden illumination changes and occlusion. In addition, although the techniques disclosed in Non-Patent Documents 2 and 3 can reduce the influence of occlusion, they cannot track a person who has characteristics as a whole, and furthermore, pixel values are used to evaluate hypotheses. Therefore, there was a possibility that the image would be lost in an environment where the lighting changes rapidly. Furthermore, the technology disclosed in Non-Patent Document 4 is similar to Non-Patent Documents 2 and 3 in that the influence of occlusion can be reduced. It has to be rebuilt each time, and depending on the feature amount, there is a possibility that it will be lost in an environment where the lighting changes abruptly.

本発明は、上記諸点に鑑みてなされたものであって、その目的とするところは、オクルージョンの影響を小さくしつつ照明変化に対応可能な追尾型照明装置および照明追尾システムを提供することである。 SUMMARY OF THE INVENTION The present invention has been made in view of the above points, and an object of the present invention is to provide a tracking lighting device and lighting tracking system capable of coping with changes in lighting while reducing the influence of occlusion. .

そこで、追尾型照明装置に係る本発明は、画像取得手段と、この画像取得手段によって取得される画像から追尾すべき対象物を判別する処理手段と、この処理手段により判別された追尾対象物に向かって照射方向を変更させつつ照明するための照明手段とを備える追尾型照明装置において、前記処理手段は、前記画像取得手段から入力される特定フレームについて、対象矩形を検出する対象矩形検出部と、この対象矩形に対する畳み込みニューラルネットワーク構造の出力値に基づいて対象矩形ごとの矩形尤度を算出する尤度算出部と、前記対象矩形の位置と矩形尤度との集合から尤度マップを作成する尤度マップ作成部と、この尤度マップのうち最も尤度の高い対象矩形を追尾対象物の対象矩形と判定する判定部とを備え、前記照明手段は、前記判定部によって判定された追尾対象物の対象矩形が照明領域の中央に位置するように照射方向を適宜変更するものであることを特徴とするものである。 Accordingly, the present invention relating to a tracking illumination device comprises: image acquisition means; processing means for determining an object to be tracked from the image acquired by the image acquisition means; and illumination means for illuminating while changing the irradiation direction, the processing means includes a target rectangle detection section for detecting a target rectangle for a specific frame input from the image acquisition means. , a likelihood calculation unit that calculates a rectangle likelihood for each target rectangle based on the output value of the convolutional neural network structure for this target rectangle, and a likelihood map is created from a set of the target rectangle position and the rectangle likelihood. a likelihood map creation unit; and a determination unit that determines a target rectangle having the highest likelihood in the likelihood map as a target rectangle of the tracking target, wherein the illumination means determines the tracking target determined by the determination unit. The illumination direction is appropriately changed so that the target rectangle of the object is positioned at the center of the illumination area.

上記構成によれば、対象矩形検出部によって対象矩形を検出し、尤度算出部が対象矩形に対する尤度を算出し、尤度マップ作成部によって尤度マップが作成されることにより、当該尤度マップのうち最も尤度の高い対象矩形を追尾対象物と判定することが可能となる。 According to the above configuration, the target rectangle is detected by the target rectangle detection unit, the likelihood calculation unit calculates the likelihood for the target rectangle, and the likelihood map creation unit creates the likelihood map. It becomes possible to determine the target rectangle with the highest likelihood in the map as the tracking target.

上記構成の追尾型照明装置に係る本発明においては、さらに、追尾対象物の移動推定部を備え、該移動推定部は、前記判定部により判定された追尾対象物の対象矩形に対しパーティクルフィルタにより追跡推定を行うものとすることができる。 The tracking illumination device of the present invention having the configuration described above further includes a tracking target movement estimating unit, and the movement estimating unit uses a particle filter to determine the target rectangle of the tracking target determined by the determination unit. A tracking estimate may be made.

上記構成の場合には、追尾対象物の対象矩形に対し、パーティクルの尤度に応じた推定が可能となり、オクルージョンの影響を小さくすることができる。 In the case of the above configuration, it is possible to estimate the target rectangle of the tracked object according to the likelihood of particles, thereby reducing the influence of occlusion.

また、上記各構成の追尾型照明装置に係る発明において、前記画像取得手段は、前記追尾対象物の対象矩形が取得画像の中央に位置するように画像取得方向を変更させる駆動部を備えており、前記判定部は、前記尤度マップ作成部によって作成された尤度マップまたは最新尤度マップにおける全領域中の尤度の総和に対し、追尾対象物の対象矩形の尤度の総和の割合が所定値以下であることを基準にロスト判定を行うものであり、前記移動推定部は、前記判定部がロスト判定した場合に、画像の中央に位置する対象矩形をもって追尾対象物の対象矩形とみなして移動推定を行うものとすることができる。 Further, in the invention relating to the tracking type illumination device having each of the configurations described above, the image acquisition means includes a drive unit for changing the image acquisition direction so that the target rectangle of the tracking target is positioned at the center of the acquired image. , the determination unit determines that the ratio of the sum of likelihoods of the target rectangle of the tracking target to the sum of likelihoods in all regions in the likelihood map created by the likelihood map creation unit or the latest likelihood map is Lost determination is performed on the basis of being equal to or less than a predetermined value, and the movement estimating unit regards the target rectangle located in the center of the image as the target rectangle of the tracking object when the determining unit determines that the movement is lost. motion estimation.

上記構成の場合には、判定部がロスト判定を行うことから、ロスト判定された場合、暫定的に画像の中央に位置する対象矩形を追尾対象物として移動推定を継続させることができる。ここで、尤度マップにおける全領域中の尤度の総和に対し、追尾対象物の対象矩形の尤度の総和の割合とは、概ね全領域の誘導総和の10%に相当する尤度が追尾対象物の対象矩形の総和であることが好適であり、その1/10を下限値として、それ以下の尤度総和となった場合にロストと判定するものとしてよい。また、画像取得手段が駆動部を備えることにより、取得画像の中央に追尾対象物の対象矩形を配置させることから、ロスト判定された場合に当該取得画像の中央の対象矩形を追尾対象物と推定させることにより、追尾を継続させることが可能となる。その結果として、周囲の照明変化やオクルージョンの影響を小さくさせることが可能となる。 In the case of the above configuration, since the determination unit performs the lost determination, when the lost determination is made, the movement estimation can be continued with the target rectangle provisionally positioned in the center of the image as the tracking target. Here, the ratio of the sum of the likelihoods of the target rectangle of the tracking target to the sum of the likelihoods of the entire area in the likelihood map means that the likelihood corresponding to approximately 10% of the sum of the inductions of the entire area is tracked. It is preferable that it is the sum of the target rectangles of the object, and 1/10 of the lower limit may be set as the lower limit, and if the sum of likelihoods is less than that, it may be determined as lost. In addition, since the image acquisition means is provided with a driving unit, the target rectangle of the tracking target is arranged in the center of the acquired image. Therefore, when the lost determination is made, the target rectangle in the center of the acquired image is estimated as the tracking target. It is possible to continue tracking. As a result, it is possible to reduce the effects of ambient lighting changes and occlusion.

さらに、上記各構成の追尾型照明装置に係る発明において、前記尤度マップ作成部は、過去4フレームにおける尤度マップと前記特定フレームにおける尤度マップの平均値によって更新されたものを最新尤度マップとして作成するものとすることができる。 Further, in the invention relating to the tracking lighting device having each of the configurations described above, the likelihood map creation unit generates the latest likelihood updated by the average value of the likelihood maps in the past four frames and the likelihood map in the specific frame. It can be created as a map.

上記のような構成によれば、尤度マップは、過去4フレームを参照した平均値によって更新されることから、尤度マップにおける最も尤度の高い対象矩形は、過去のフレームから連続することとなり、最新の尤度マップに表現される尤度の正確性を高めることができる。 According to the configuration as described above, the likelihood map is updated by the average value referring to the past four frames, so the target rectangle with the highest likelihood in the likelihood map is continuous from the past frame. , can improve the accuracy of the likelihood represented in the latest likelihood map.

他方、照明追尾システムに係る本発明は、上記各構成のいずれかに係る追尾型照明装置を使用する室内会場における照明追尾システムであって、前記追尾対象物が、外見上の特徴を有する人物であり、前記処理手段は、前記人物が共通して有する外見上の特徴および該人物の移動軌跡に関する教師データを記憶する記憶部を備え、前記判定部は、前記尤度マップ作成部によって作成された尤度マップまたは最新尤度マップにおける追尾対象物の対象矩形の尤度の総和が所定値以下である場合に、前記人物に関する教師データとの比較によって追尾対象物の対象矩形を特定するものであることを特徴とするものである。 On the other hand, the present invention relating to a lighting tracking system is a lighting tracking system for an indoor venue using the tracking type lighting device according to any one of the configurations described above, wherein the tracking target is a person having a characteristic appearance. wherein the processing means comprises a storage unit for storing teacher data relating to outward features shared by the person and movement trajectories of the person; and the determination unit is created by the likelihood map creation unit. When the sum of the likelihoods of the target rectangles of the tracking target in the likelihood map or the latest likelihood map is equal to or less than a predetermined value, the target rectangle of the tracking target is specified by comparison with teacher data relating to the person. It is characterized by

上記構成によれば、例えば、結婚披露宴会場において照明を追尾させるような場合には、照明を照射すべき対象物(例えば、新郎・新婦)は、外見上明確に他と区別できる外見上の特徴を有することから、複数の追尾対象物(例えば、新郎・新婦)これを教師データとして記憶させ、当該教師データとの比較によって、追尾対象物の対象矩形の尤度を高くすることができる。さらに、尤度マップにおける対象矩形の尤度総和が低い場合にあっても、外見上の特徴にかかる教師データとの比較により、追尾対象物の判定が可能となる。これは、周囲の照明変化やオクルージョンの影響を小さくさせることが可能とするものである。 According to the above configuration, for example, when the lighting is tracked in a wedding reception hall, the object to be illuminated (for example, the bride and groom) has an external feature that can be clearly distinguished from others. , it is possible to store a plurality of tracking targets (for example, a bride and groom) as teacher data and compare them with the teacher data to increase the likelihood of the target rectangle of the tracking target. Furthermore, even if the sum of the likelihoods of the target rectangles in the likelihood map is low, it is possible to determine the tracking target by comparing it with teacher data relating to its appearance features. This makes it possible to reduce the effects of ambient lighting changes and occlusion.

また、照明追尾システムに係る本発明は、上記各構成のいずれかに係る追尾型照明装置を使用する室内会場における照明追尾システムであって、前記画像取得手段は、前記照明手段と一体的に設置され、かつ取得画像の中央が照明手段によって照射される照射範囲の中央に合致させたものであり、前記照明手段は、自動追尾状態と手動追尾状態との切り換えを可能とするものであり、前記移動推定部は、手動追尾状態から自動追尾状態に切り換えた直後に入力される入力画像のうち、中央に位置する対象矩形をもって追尾対象物の対象矩形とみなして判定するものであることを特徴とするものである。 Further, the present invention related to a lighting tracking system is a lighting tracking system in an indoor venue using the tracking type lighting device according to any one of the above configurations, wherein the image acquiring means is installed integrally with the lighting means. and the center of the obtained image is aligned with the center of the irradiation range irradiated by the lighting means, the lighting means is capable of switching between an automatic tracking state and a manual tracking state, The movement estimating unit is characterized in that, of the input image input immediately after switching from the manual tracking state to the automatic tracking state, the target rectangle located in the center is regarded as the target rectangle of the tracking target and determined. It is something to do.

上記構成によれば、照明手段による照射方向が変更されることに伴って、画像取得手段の向きも変更され、しかも、取得画像の中央が照射範囲の中央に一致していることから、手動追尾状態において、照明手段による照射範囲の中心に追尾対象物とすれば、必然的に取得画像の中央に追尾対象物が配置されることとなる。この状態で自動追尾状態に切り換える場合には、複数の対象矩形の中から追尾対象物の対象矩形を判別することなく、中央に位置する対象矩形をもって追尾対象物の対象矩形と判断させることが可能となる。これは、自動追尾状態の開始の際またはロスト状態から早期に復帰させることができる。 According to the above configuration, the orientation of the image acquisition means is changed in accordance with the change in the direction of irradiation by the illumination means, and the center of the acquired image coincides with the center of the irradiation range. In this state, if the tracking target is positioned at the center of the range illuminated by the illumination means, the tracking target will inevitably be placed at the center of the obtained image. When switching to the automatic tracking state in this state, it is possible to determine the target rectangle of the tracking target based on the target rectangle located in the center without distinguishing the target rectangle of the tracking target from among multiple target rectangles. becomes. This allows early recovery at the start of an auto-track state or from a lost state.

上記構成の発明において、前記照明手段は、所定の駆動部を備え、前記判定部により追尾対象物がロスト状態であると判断された場合、前記駆動部の駆動を停止するものとすることができる。 In the above-configured invention, the lighting means may include a predetermined driving section, and may stop driving the driving section when the determination section determines that the tracking target is in a lost state. .

上記構成の場合には、追尾対象物をロストした際、複数の対象矩形から追尾対象物の対象矩形を判別するために、照明手段による照射方向をむやみに変更させないことができる。ロスト状態の場合には、一時的に手動追尾状態に切り換えることにより、ロスト状態からの復帰を容易とし、また、照射方向が不規則に変動しないことから会場内の雰囲気を乱すことを防ぐこともできる。 In the case of the above configuration, when the tracking target object is lost, it is possible to discriminate the target rectangle of the tracking target from a plurality of target rectangles, so that the irradiation direction of the illumination means can be prevented from being recklessly changed. In the case of lost state, by temporarily switching to the manual tracking state, recovery from the lost state is facilitated, and since the irradiation direction does not fluctuate irregularly, it is possible to prevent disturbing the atmosphere in the venue. can.

また、上記構成において、前記画像取得手段は、前記照明手段と一体的に向きを変更するものであり、前記判定部により判定された追尾対象物の対象矩形が前記画像取得手段による取得画像の中央に位置する状態となるように前記駆動部を制御するものとしてよい。 Further, in the above configuration, the image acquiring means changes the direction integrally with the lighting means, and the target rectangle of the tracking target determined by the determining section is the center of the image acquired by the image acquiring means. The driving unit may be controlled so as to be in a state of being positioned at

上記構成の場合には、照明手段の向きの制御として、照明の照射状態を検知するのではなく、画像取得手段による取得画像に基づくものとするのである。このような制御により、画像取得手段による取得画像の中央には常に追尾対象物の対象矩形を配置させつつ、結果として、照明手段による照射範囲の中心に追尾対象物を配置させることができる。 In the case of the above configuration, the control of the direction of the lighting means is based on the image obtained by the image obtaining means, instead of detecting the irradiation state of the lighting. With such control, the target rectangle of the tracking target is always placed in the center of the image acquired by the image acquisition means, and as a result, the tracking target can be placed in the center of the irradiation range of the illumination means.

上記各構成の照明追尾システムに係る発明において、前記画像取得手段および前記照明手段は、室内会場の天井および壁面のうち、任意の2箇所に設置されているものとすることができる。 In the invention relating to the illumination tracking system having each of the configurations described above, the image acquisition means and the illumination means may be installed at any two locations among the ceiling and wall surfaces of the indoor venue.

上記構成によれば、異なる2点から追尾対象物を追尾しつつ照明を照射させることができるため、二つの画像取得手段および照明手段のうちの一方の画像処理がロスト状態となり照明の追尾が不能な状態となった場合であっても、他方の画像処理が正常に処理されていれば、少なくとも当該他方の画像処理に基づく他方の照明は追尾対象物を継続して追尾させることができる。 According to the above configuration, since it is possible to irradiate the object while tracking it from two different points, the image processing of one of the two image acquisition means and the illumination means becomes lost and the illumination cannot be tracked. Even in such a state, if the other image processing is normally performed, at least the other illumination based on the other image processing can continue to track the tracking object.

追尾型照明装置に係る本発明によれば、オクルージョンの影響を小さくしつつ追尾対象物の追跡が可能であり、また、照明が変化する場合であっても追跡させることができる。さらに、追尾対象物の対象矩形が取得画像の中央に位置するように画像取得手段の向きが調整される構成の場合には、仮にロスト状態となった場合であっても、取得画像(入力画像)の中央に位置する対象矩形をもって追尾対象物として追尾状態に復帰させることができる。 ADVANTAGE OF THE INVENTION According to this invention which concerns on a tracking-type illuminating device, the tracking target object can be tracked, reducing the influence of an occlusion, and even when illumination changes, tracking can be carried out. Furthermore, in the case of a configuration in which the orientation of the image acquisition means is adjusted so that the target rectangle of the tracking target is positioned at the center of the acquired image, even if a lost state occurs, the acquired image (input image ) can be returned to the tracking state as the tracking target.

照明追尾システムに係る本発明によれば、上述の追尾型照明装置によって、オクルージョンの影響を小さくしつつ照明変化に対応可能であるうえ、教師データを備える構成の場合には、特定の会場における同種の宴会等において、照明を照射すべき人物等を教師データと比較しつつ追尾させることができ、ロバスト性を向上させるものとなる。手動追尾状態と自動追尾状態との切り換え可能な構成にあっては、手動追尾状態によって準備した後、自動追尾状態による照明追尾を実行させることができるものである。 According to the lighting tracking system of the present invention, the above-described tracking lighting device can cope with lighting changes while reducing the influence of occlusion. In a banquet or the like, a person or the like to be illuminated can be tracked while being compared with teacher data, thereby improving robustness. In a configuration capable of switching between the manual tracking state and the automatic tracking state, lighting tracking can be executed in the automatic tracking state after preparation in the manual tracking state.

照明追尾システムに係る本発明の実施形態を示す説明図である。It is an explanatory view showing an embodiment of the present invention concerning an illumination tracking system. 追尾型照明装置の概要を示す説明図である。It is an explanatory view showing an outline of a tracking type illuminating device. 対象矩形の概念を示す説明図である。FIG. 4 is an explanatory diagram showing the concept of a target rectangle; 畳み込みニューラルネットワーク構造の概略図である。1 is a schematic diagram of a convolutional neural network structure; FIG. 尤度マップの概念を示す説明図である。It is an explanatory view showing the concept of a likelihood map.

以下、本発明の実施の形態を図面に基づいて説明する。図1は、照明追尾システムの概要を示すものである。照明追尾システムに係る実施形態は、図1(a)に示すように、特定の会場Aの室内において、1箇所または2箇所(図は2箇所)に追尾型照明装置1a,1bが設置されたものであり、この室内における照明(スポットライト)を特定の対象物(例えば人物)H1,H2に照射するものである。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows an outline of an illumination tracking system. As shown in FIG. 1(a), the embodiment of the lighting tracking system has tracking lighting devices 1a and 1b installed at one or two locations (two locations in the figure) in a room of a specific venue A. It irradiates specific objects (for example, people) H1 and H2 with illumination (spotlight) in the room.

個々の照明装置1a,1bは、それぞれが後述の追尾型照明装置が使用され、対象物H1,H2が移動すると、その移動に伴って照射方向を変更するものである。例えば、結婚披露宴会場の場合、新郎H1および新婦H2が、二人揃って室内を移動することから、その二人H1,H2を追尾するように照明(スポットライト)の照射方向を変更させるのである。 Each of the lighting devices 1a and 1b uses a tracking type lighting device, which will be described later. For example, in the case of a wedding reception hall, since the groom H1 and the bride H2 move together in the room, the illumination direction of the illumination (spotlight) is changed so as to track the two men H1 and H2. .

ここで、追尾型照明装置1の実施形態としては、図1(b)に示すように、照明手段としてのスポットライト2と、画像取得手段としてのカメラ3が、単一の筐体に一体的に設置されている。また、この追尾型照明装置1には、内蔵または外付けされた処理手段としての処理装置4が設けられ、カメラ3によって撮影される画像データの入力を受け、画像処理することができる。 Here, as an embodiment of the tracking type lighting device 1, as shown in FIG. is installed in In addition, the tracking illumination device 1 is provided with a processing device 4 as a processing means built in or externally provided, and can receive input of image data captured by the camera 3 and perform image processing.

追尾型照明装置1は、水平方向への旋回が可能な旋回軸21と、上下方向への角度調整が可能な回転軸22とを備えており、実質的には旋回軸21が壁面または天井の表面にモータ等の駆動部を介して設置されるものである。回転軸22に駆動部を設けることにより角度調整を駆動させてもよい。 The tracking lighting device 1 includes a pivot 21 that can pivot in the horizontal direction and a rotary shaft 22 that allows angle adjustment in the vertical direction. It is installed on the surface via a driving part such as a motor. The angle adjustment may be driven by providing the rotating shaft 22 with a driving portion.

ところで、上記の駆動部(モータ)は、コントローラ5によって制御信号が出力(制御電圧が印加)され、その出力値に応じて駆動するものである。このコントローラ5は、前述の処理装置4によって画像処理された結果に応じて、必要な駆動(照明装置1の方向を変更)させるためのものである。 By the way, the controller 5 outputs a control signal (applies a control voltage) to the drive section (motor), and drives the drive section (motor) according to the output value. This controller 5 is for performing necessary driving (changing the direction of the lighting device 1) according to the result of image processing by the processing device 4 described above.

なお、処理装置4にモニタ(表示装置)6を接続することにより、カメラ3によって撮影され、処理装置4に入力された画像、および処理装置4により処理された状態が表示できるようになっており、このモニタ6を目視で確認することにより、追尾状態が正常であるか否かを操作者において判断できるものとしている。 By connecting a monitor (display device) 6 to the processing device 4, images captured by the camera 3 and input to the processing device 4 and the state processed by the processing device 4 can be displayed. By visually confirming the monitor 6, the operator can judge whether the tracking state is normal or not.

図2に示すように、処理装置4には、対象矩形検出部41、尤度算出部42、尤度マップ作成部43、および判定部44が設けられ、対象矩形検出部41は、カメラ3から入力される画像(特定のフレーム)について、対象矩形を検出するものである。対象矩形とは、全体画像(矩形)の中における所定幅と所定長によって追尾対象(例えば人物)を包囲し得る矩形の領域であり、追尾対象となり得る対象物(例えば人物)について個々に対象矩形で包囲し、追尾対象か否かを判断するために特定するものである。なお、処理装置4には記憶部40が設けられ、入力データのほか、各種算出結果および出力データを一時的に記憶させることができるものとしている。 As shown in FIG. 2 , the processing device 4 includes a target rectangle detection unit 41 , a likelihood calculation unit 42 , a likelihood map generation unit 43 , and a determination unit 44 . A target rectangle is detected for an input image (specific frame). A target rectangle is a rectangular area that can surround a tracking target (for example, a person) with a predetermined width and a predetermined length in the entire image (rectangle). , and is specified in order to determine whether or not it is a tracking target. The processing device 4 is provided with a storage unit 40, which can temporarily store various calculation results and output data in addition to the input data.

尤度算出部42は、個々の対象矩形に対して畳み込みニューラルネットワークにより識別した結果(畳み込みニューラルネットワーク構造の出力値)から尤度を算出するものであり、具体的には、当該出力値を尤度として、対象矩形の尤度(矩形尤度)とするものである。また、尤度マップ作成部43は、対象矩形の位置と対象矩形の尤度との集合から尤度マップを作成するものである。尤度マップは、個々の対象矩形における尤度の高低をマップ状に表示(全体画像中に尤度の高低を表示)したものである。この尤度マップの作成により、複数の対象矩形の中から追尾対象とすべき対象矩形を特定することが可能となるのである。そこで、判定部44は、尤度マップのうち最も尤度の高い対象矩形を追尾対象物の対象矩形と判定するものとしている。 The likelihood calculation unit 42 calculates the likelihood from the results (output values of the convolutional neural network structure) identified by the convolutional neural network for each target rectangle. The degree is the likelihood of the target rectangle (rectangular likelihood). The likelihood map creating section 43 creates a likelihood map from a set of the positions of the target rectangles and the likelihoods of the target rectangles. The likelihood map is a map showing the level of likelihood in each target rectangle (displaying the level of likelihood in the entire image). By creating this likelihood map, it becomes possible to specify a target rectangle to be tracked from among a plurality of target rectangles. Therefore, the determination unit 44 determines the target rectangle with the highest likelihood in the likelihood map as the target rectangle of the tracking target.

具体的には、図3に示すように、追尾対象物が人物である場合、特定フレーム(図3(a))における人物と判断できる領域に幅w×高さhの矩形(対象矩形)を設定する(図3(b))。この対象矩形に対して、畳み込みニューラルネットワークによって追尾対象となり得るかを識別させるのである(図3(c))。このときの畳み込みニューラルネットワーク構造は、図4に示すとおりであり、表1に示すようなネットワークとした。 Specifically, as shown in FIG. 3, when the tracking target is a person, a rectangle (target rectangle) of width w×height h is placed in a region that can be determined to be a person in a specific frame (FIG. 3(a)). Set (Fig. 3(b)). This target rectangle is identified by a convolutional neural network as to whether it can be tracked (FIG. 3(c)). The structure of the convolutional neural network at this time is as shown in FIG.

Figure 0007219915000001
Figure 0007219915000001

さらに具体的には、人物矩形検出には、n番目のフレームの画像Inを入力として、人物を包囲する人物矩形(幅w、高さh、中心座標(x,y))の集合を出力とするF(I)を用い、当該n番目のフレームの人物矩形の集合Rnを取得する。この集合Rは下式のように関数Fとして示すことができる。なお、関数Fとしては、ImageNet(http://www.image-net.org)により訓練済みのYolo(Joseph Redmon:“YOLO9000: Better, Faster, Stronger,” arXiv:1612.08242,(2016))を使用することができる。 More specifically, for human rectangle detection, an image In of the n-th frame is input, and a set of human rectangles (width w, height h, center coordinates (x, y)) surrounding the person is output. F(I) is used to obtain a set Rn of human rectangles in the n-th frame. This set R n can be expressed as a function F as shown below. Yolo (Joseph Redmon: “YOLO9000: Better, Faster, Stronger,” arXiv:1612.08242, (2016)) trained by ImageNet (http://www.image-net.org) is used as the function F. can do.

Figure 0007219915000002
Figure 0007219915000002

また、追尾対象の識別においては、Rの各要素riによってInから画像I’を切り出し、I’を識別器Gによって識別する。なお、Gとしては、前述の畳み込みニューラルネットワークを用いることができる。 In identifying the tracking target, an image I i ' is cut out from In by each element ri of R n , and the classifier G identifies I i '. As for G, the convolutional neural network described above can be used.

この識別の結果、I’が追尾対象である場合には、下式のように、Rn’に矩形riを追加し、Lnに尤度liを追加する。 As a result of this identification, if I i ' is the tracking target, the rectangle ri is added to Rn' and the likelihood li is added to Ln, as in the following equation.

Figure 0007219915000003
Figure 0007219915000003

尤度マップは、入力画像Inと同じサイズのh×w行列であり、(i,j)成分は入力画像In中の(i,j)座標において、どの程度の追尾対象が存在するかを表すものとする。ここで作成される尤度マップを最終的な尤度マップとして使用してもよいが、n番目のフレームで作成した尤度マップを仮のマップとし、過去4フレームにおける尤度マップとともに平均したものを最終的な尤度マップとして使用してもよい。その状態を図示すれば、図5のように表すことができる。 The likelihood map is an h×w matrix of the same size as the input image In, and the (i, j) component indicates how many tracking targets exist at the (i, j) coordinates in the input image In. shall be The likelihood map created here may be used as the final likelihood map, but the likelihood map created in the n-th frame is used as a temporary map and averaged with the likelihood maps in the past 4 frames. may be used as the final likelihood map. If the state is illustrated, it can be expressed as shown in FIG.

ここで、照明(スポットライト)2の向きは、前述のように追尾対象物(人物)を追尾するように照射させるものであるため、コントローラの信号によって駆動させている。このとき、スポットライト2とカメラ3が単一の筐体に設置されていることにより、カメラ3によって取得される画像を基準に、所望画像が得られるように駆動させれば、必然的にスポットライト2の照射方向は変更される。すなわち、スポットライト2によって照射される範囲(通常は円形)の中央と、カメラ3によって取得される画像の中央を一致させることにより、取得画像の中央において常に追尾対象物の対象矩形が位置されるように、カメラ3の向きを修正することとすれば、スポットライト2によって照射される光の範囲の中央に追尾対象物が存在することとなるのである。 Here, the illumination (spotlight) 2 is directed so as to track the tracking object (person) as described above, and is driven by a signal from the controller. At this time, since the spotlight 2 and the camera 3 are installed in a single housing, if the image acquired by the camera 3 is used as a reference and driven so as to obtain a desired image, the spotlight will inevitably The irradiation direction of the light 2 is changed. That is, by aligning the center of the range (usually circular) illuminated by the spotlight 2 with the center of the image acquired by the camera 3, the target rectangle of the tracking target is always positioned at the center of the acquired image. If the orientation of the camera 3 is corrected in this way, the tracking target will be present in the center of the range of light emitted by the spotlight 2 .

本発明の実施形態は上記のとおりであるが、上記の各実施形態は本発明の例示であって、本発明がこれらの実施形態に限定されるものではない。従って、上記実施形態の要素を変更し、または他の要素を追加することができるものである。 Although the embodiments of the present invention are as described above, each of the above embodiments is an illustration of the present invention, and the present invention is not limited to these embodiments. Therefore, elements of the above embodiments can be changed or other elements can be added.

例えば、照明追尾システムにあっては、照明装置を操作する際に、手動追尾モードと、自動追尾モードとの切り換えを可能とすることができる。手動追尾モードとは、操作者が手動によりスポットライトを所定方向に向けて照射する状態(手動追尾状態)での操作モードであり、自動追尾モードとは、前述のように取得画像に基づいて追尾対象物の対象矩形を判別してスポットライトを追尾させる状態(自動追尾状態)での操作モードである。このようなモード切替を可能にすることにより、自動追尾状態において追尾対象物をロストした場合、操作者が手動追尾状態にて追尾を継続させることができる。 For example, in the lighting tracking system, it is possible to switch between manual tracking mode and automatic tracking mode when operating the lighting device. Manual tracking mode is an operation mode in which the operator manually irradiates a spotlight in a predetermined direction (manual tracking state). This is an operation mode in which the target rectangle of the object is determined and the spotlight is tracked (automatic tracking state). By enabling such mode switching, if the tracking target is lost in the automatic tracking state, the operator can continue tracking in the manual tracking state.

このモード切替においては、手動追尾状態で、操作者がスポットライトの中央に追尾対象物を存在させた状態とし、このとき、カメラによる取得画像の中央にも同時に追尾対象物が撮影されるものとすれば、手動追尾状態により、予め追尾対象物を特定した後に自動追尾処理を開始させるという使用方法もあり得る。 In this mode switching, in the manual tracking state, the operator places the tracking target in the center of the spotlight, and at this time, the tracking target is simultaneously photographed in the center of the image acquired by the camera. Then, it is possible to use the manual tracking state to start the automatic tracking process after specifying the tracked object in advance.

また、予め処理装置に記憶部を備え、当該記憶部に教師データを記憶させておき、判定手段における最終的な判定に際して、またはロスト状態もしくはロストに近い状態に際して、教師データとの比較によって、追尾対象物を判別させてもよい。 In addition, the processing device is provided with a storage unit in advance, and teacher data is stored in the storage unit, and tracking is performed by comparison with the teacher data at the time of the final determination by the determination means, or in the lost state or near-lost state. You may discriminate|determine a target object.

その際、判定部44において、尤度マップ作成部43によって作成された尤度マップ(過去4フレームを平均した最新の尤度マップ)における全領域中の尤度の総和に対し、追尾対象物の対象矩形の尤度の総和の割合が所定値以下であることを基準にロスト判定を行うように設定することができる。この場合の尤度マップにおける全領域中の尤度の総和に対し、追尾対象物の対象矩形の尤度の総和の割合とは、概ね全領域の誘導総和の10%に相当する尤度が追尾対象物の対象矩形の総和であることが好適であり、その1/10を下限値として、それ以下の尤度総和となった場合にロストと判定することができる。 At that time, in the determination unit 44, the likelihood map generated by the likelihood map generation unit 43 (the latest likelihood map obtained by averaging the past four frames) is calculated by calculating It is possible to set the lost determination based on whether the ratio of the sum of the likelihoods of the target rectangle is equal to or less than a predetermined value. In this case, the ratio of the sum of the likelihoods of the target rectangle of the tracking target to the sum of the likelihoods of the entire area in the likelihood map means that the likelihood corresponding to approximately 10% of the sum of the inductions of the entire area is tracked. It is preferable to be the sum of the target rectangles of the object, and 1/10 is set as the lower limit, and if the likelihood sum is less than that, it can be determined as lost.

さらに、追尾対象物の対象矩形の推定として、対象矩形の座標位置を示すパーティクルを用いて尤度分布を推定してもよい。パーティクルで示される座標位置の密度が最も濃い部分が、最も尤度の高い部分を推定しているものとして、パーティクルの重心を追尾対象とすることができる。 Furthermore, as estimation of the target rectangle of the tracking target, a likelihood distribution may be estimated using particles indicating the coordinate position of the target rectangle. Assuming that the part with the highest density of the coordinate positions indicated by the particles estimates the part with the highest likelihood, the center of gravity of the particles can be set as the tracking target.

<実験例>
画像処理において、取得画像から追尾対象物を識別できるか否かについて、処理動作の実験を行った。実験には、3つの動画を使用し、それぞれ人物が一人の動画(A)、人物二人がすれ違う動画(B)、および人物三人のうち二人が入り乱れ急激な照明変化がある動画(C)とした。また、処理方法は、前述のように対象矩形を設定し、畳み込みニューラルネットワークにより識別して尤度を出力させ、尤度マップを作成したうえで判定させたものである。
<Experimental example>
In image processing, a processing operation experiment was conducted to determine whether or not a tracked object can be identified from an acquired image. For the experiment, three videos were used: a video with one person (A), a video with two people passing each other (B), and a video with two out of three people intertwined and abrupt lighting changes (C). ). Further, the processing method is to set the target rectangle as described above, identify it by the convolutional neural network, output the likelihood, create a likelihood map, and then perform the determination.

実験の結果をMean Shiftとの比較を含めて下表に示す。 The results of the experiments are shown in the table below, including a comparison with Mean Shift.

Figure 0007219915000004
Figure 0007219915000004

Figure 0007219915000005
Figure 0007219915000005

上記の結果から、Mean Shiftに比べて、追尾精度は向上していることが分かる(表2)。一方で、処理速度はMean Shiftの約20倍の遅延であった(表3)。ところが、高速で処理し、かつ正確な追尾が可能となる場合、例えば、室内会場における使用のように、追尾対象物が僅かに移動した程度でスポットライトが移動することとなる。これは、照射された光のちらつきになるため、スポットライトは、少し遅く(追尾対象物に遅れながら)移動することが自然な追尾を実現できるという効果をえることができるものである。 From the above results, it can be seen that the tracking accuracy is improved compared to Mean Shift (Table 2). On the other hand, the processing speed was about 20 times slower than Mean Shift (Table 3). However, if high-speed processing and accurate tracking are possible, the spotlight will move when the tracked object moves slightly, as in the case of use in an indoor venue, for example. Since this causes the emitted light to flicker, it is possible to obtain the effect that natural tracking can be achieved by moving the spotlight a little slower (while lagging behind the tracked object).

1,1a,1b 追尾型照明装置
2 スポットライト(照明手段)
3 カメラ(画像取得手段)
4 処理装置(処理手段)
5 コントローラ
6 モニタ
40 記憶部
41 対象矩形検出部
42 尤度算出部
43 尤度マップ作成部
44 判定部
1, 1a, 1b tracking type illumination device 2 spotlight (illumination means)
3 camera (image acquisition means)
4 processing equipment (processing means)
5 controller 6 monitor 40 storage unit 41 object rectangle detection unit 42 likelihood calculation unit 43 likelihood map creation unit 44 determination unit

Claims (9)

画像取得手段と、この画像取得手段によって取得される画像から追尾すべき対象物を判別する処理手段と、この処理手段により判別された追尾対象物に向かって照射方向を変更させつつ照明するための照明手段とを備える追尾型照明装置において、
前記処理手段は、前記画像取得手段から入力される特定フレームについて、対象矩形を検出する対象矩形検出部と、この対象矩形に対する畳み込みニューラルネットワーク構造の出力値に基づいて対象矩形ごとの矩形尤度を算出する尤度算出部と、前記対象矩形の位置と矩形尤度との集合から尤度マップを作成する尤度マップ作成部と、この尤度マップのうち最も尤度の高い対象矩形を追尾対象物の対象矩形と判定する判定部とを備え、
前記照明手段は、前記判定部によって判定された追尾対象物の対象矩形が照明領域の中央に位置するように照射方向を適宜変更するものであることを特徴とする追尾型照明装置。
An image acquiring means, a processing means for discriminating an object to be tracked from the image acquired by the image acquiring means, and a means for illuminating the tracking target discriminated by the processing means while changing the irradiation direction. In a tracking lighting device comprising lighting means,
The processing means includes a target rectangle detection unit for detecting a target rectangle for a specific frame input from the image acquisition means, and a rectangle likelihood for each target rectangle based on an output value of a convolutional neural network structure for the target rectangle. a likelihood calculating unit for calculating a likelihood map, a likelihood map creating unit for creating a likelihood map from a set of the positions of the target rectangles and the rectangular likelihoods, and a target rectangle having the highest likelihood among the likelihood maps as a tracking target. A determination unit for determining a target rectangle of an object,
The tracking lighting device, wherein the lighting means appropriately changes the irradiation direction so that the target rectangle of the tracking target determined by the determination unit is positioned at the center of the illumination area.
さらに、追尾対象物の移動推定部を備え、該移動推定部は、前記判定部により判定された追尾対象物の対象矩形に対しパーティクルフィルタにより追跡推定を行うものである請求項1に記載の追尾型照明装置。 2. The tracking according to claim 1, further comprising a tracking object movement estimating unit, wherein the movement estimating unit performs tracking estimation with a particle filter for the target rectangle of the tracking object determined by the determining unit. type lighting device. 前記画像取得手段は、前記追尾対象物の対象矩形が取得画像の中央に位置するように画像取得方向を変更させる駆動部を備えており、
前記判定部は、前記尤度マップ作成部によって作成された尤度マップまたは最新尤度マップにおける全領域中の尤度の総和に対し、追尾対象物の対象矩形の尤度の総和の割合が所定値以下であることを基準にロスト判定を行うものであり、
前記移動推定部は、前記判定部がロスト判定した場合に、画像の中央に位置する対象矩形をもって追尾対象物の対象矩形とみなして移動推定を行うものである請求項2に記載の追尾型照明装置。
The image acquisition means includes a driving unit that changes an image acquisition direction so that the target rectangle of the tracking target is positioned at the center of the acquired image,
The determination unit determines a predetermined ratio of the sum of likelihoods of the target rectangle of the tracking target to the sum of likelihoods in all regions in the likelihood map created by the likelihood map creation unit or the latest likelihood map. Lost judgment is performed based on being below the value,
3. The tracking illumination system according to claim 2, wherein the movement estimation unit performs movement estimation by regarding a target rectangle located in the center of the image as a target rectangle of the tracking object when the determination unit makes a lost determination. Device.
前記尤度マップ作成部は、過去4フレームにおける尤度マップと前記特定フレームにおける尤度マップの平均値によって更新されたものを最新尤度マップとして作成するものである請求項1~3のいずれかに記載の追尾型照明装置。 4. The likelihood map generation unit according to any one of claims 1 to 3, wherein the likelihood map generation unit generates a latest likelihood map updated by an average value of the likelihood maps in the past four frames and the likelihood map in the specific frame. The tracking lighting device according to . 請求項1~4のいずれかに記載の追尾型照明装置を使用する室内会場における照明追尾システムであって、
前記追尾対象物が、外見上の特徴を有する人物であり、
前記処理手段は、前記人物が共通して有する外見上の特徴および該人物の移動軌跡に関する教師データを記憶する記憶部を備え、
前記判定部は、前記尤度マップ作成部によって作成された尤度マップまたは最新尤度マップにおける追尾対象物の対象矩形の尤度の総和が所定値以下である場合に、前記人物に関する教師データとの比較によって追尾対象物の対象矩形を特定するものであることを特徴とする室内会場における照明追尾システム。
A lighting tracking system in an indoor venue using the tracking lighting device according to any one of claims 1 to 4,
the tracked object is a person having a characteristic in appearance,
The processing means comprises a storage unit that stores teacher data relating to external features that the person has in common and movement trajectories of the person,
The determination unit determines that, when the sum of the likelihoods of the target rectangles of the tracking target in the likelihood map created by the likelihood map creation unit or the latest likelihood map is equal to or less than a predetermined value, A lighting tracking system in an indoor venue, characterized in that it identifies a target rectangle of a tracking target by comparing the .
請求項2または3に記載の追尾型照明装置を使用する室内会場における照明追尾システムであって、
前記画像取得手段は、前記照明手段と一体的に設置され、かつ取得画像の中央が照明手段によって照射される照射範囲の中央に合致させたものであり、
前記照明手段は、自動追尾状態と手動追尾状態との切り換えを可能とするものであり、
前記移動推定部は、手動追尾状態から自動追尾状態に切り換えた直後に入力される入力画像のうち、中央に位置する対象矩形をもって追尾対象物の対象矩形とみなして判定するものであることを特徴とする室内会場における照明追尾システム。
A lighting tracking system in an indoor venue using the tracking lighting device according to claim 2 or 3 ,
The image acquisition means is installed integrally with the illumination means, and the center of the acquired image is aligned with the center of the irradiation range illuminated by the illumination means,
The lighting means enables switching between an automatic tracking state and a manual tracking state,
The movement estimating unit determines a target rectangle located in the center of the input image input immediately after switching from the manual tracking state to the automatic tracking state as the target rectangle of the tracking target. A lighting tracking system for indoor venues.
前記照明手段は、所定の駆動部を備え、前記判定部により追尾対象物がロスト状態であると判断された場合、前記駆動部の駆動を停止するものである請求項6に記載の室内会場における照明追尾システム。 7. The indoor venue according to claim 6, wherein the lighting means includes a predetermined driving section, and stops driving the driving section when the determination section determines that the tracking target is in a lost state. lighting tracking system. 前記画像取得手段は、前記照明手段と一体的に向きを変更するものであり、前記判定部により判定された追尾対象物の対象矩形が前記画像取得手段による取得画像の中央に位置する状態となるように前記駆動部を制御するものである請求項7に記載の室内会場における照明追尾システム。 The image acquisition means changes the direction integrally with the illumination means, and the target rectangle of the tracking object determined by the determination unit is positioned at the center of the image obtained by the image acquisition means. 8. The lighting tracking system in an indoor venue according to claim 7, wherein the driving unit is controlled so as to. 前記画像取得手段および前記照明手段は、室内会場の天井および壁面のうち、任意の2箇所に設置されている請求項5~8のいずれかに記載の室内会場における照明追尾システム。 9. The lighting tracking system for an indoor venue according to any one of claims 5 to 8, wherein said image acquiring means and said lighting means are installed at any two locations among a ceiling and a wall surface of said indoor venue.
JP2019031663A 2019-02-25 2019-02-25 Tracking lighting device and lighting tracking system Active JP7219915B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019031663A JP7219915B2 (en) 2019-02-25 2019-02-25 Tracking lighting device and lighting tracking system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019031663A JP7219915B2 (en) 2019-02-25 2019-02-25 Tracking lighting device and lighting tracking system

Publications (2)

Publication Number Publication Date
JP2020136213A JP2020136213A (en) 2020-08-31
JP7219915B2 true JP7219915B2 (en) 2023-02-09

Family

ID=72278961

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019031663A Active JP7219915B2 (en) 2019-02-25 2019-02-25 Tracking lighting device and lighting tracking system

Country Status (1)

Country Link
JP (1) JP7219915B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112423442A (en) * 2020-09-11 2021-02-26 扬州科佳建设工程有限公司 Scene illumination control method based on face recognition

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009182624A (en) 2008-01-30 2009-08-13 Victor Co Of Japan Ltd Target tracking device
US20170272661A1 (en) 2016-03-17 2017-09-21 Canon Kabushiki Kaisha Zooming control apparatus, image capturing apparatus and control methods thereof
JP2018022360A (en) 2016-08-04 2018-02-08 株式会社リコー Image analysis device, image analysis method and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3296675B2 (en) * 1995-02-28 2002-07-02 三洋電機株式会社 Subject tracking apparatus and subject tracking method
JP3271900B2 (en) * 1996-06-19 2002-04-08 松下電工株式会社 Automatic tracking lighting system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009182624A (en) 2008-01-30 2009-08-13 Victor Co Of Japan Ltd Target tracking device
US20170272661A1 (en) 2016-03-17 2017-09-21 Canon Kabushiki Kaisha Zooming control apparatus, image capturing apparatus and control methods thereof
JP2017167438A (en) 2016-03-17 2017-09-21 キヤノン株式会社 Zoom control device, imaging apparatus, control method for them, program, and storage medium
JP2018022360A (en) 2016-08-04 2018-02-08 株式会社リコー Image analysis device, image analysis method and program

Also Published As

Publication number Publication date
JP2020136213A (en) 2020-08-31

Similar Documents

Publication Publication Date Title
JP5343042B2 (en) Point cloud data processing apparatus and point cloud data processing program
JP5469899B2 (en) Automatic tracking method and surveying device
JP5172010B2 (en) Rectangle table detection using RGB and depth measurement hybrid camera sensors
US20120086778A1 (en) Time of flight camera and motion tracking method
JP2005149509A (en) Landmark detection apparatus, landmark detection method, and computer-readable recording medium with landmark detection program recorded
US20170109932A1 (en) Content projection apparatus, content projection method, and computer readable storage medium
JP2005503731A (en) Intelligent 4-screen simultaneous display through collaborative distributed vision
Pavlović et al. Advanced thermal camera based system for object detection on rail tracks
Fiala et al. Robot navigation using panoramic tracking
JP7219915B2 (en) Tracking lighting device and lighting tracking system
JP2023041931A (en) Evaluation device, evaluation method, and program
Shimizu et al. Surgery Recording without Occlusions by Multi-view Surgical Videos.
Taylor et al. Monocular vision as a range sensor
Wang et al. Tracking objects through occlusions using improved Kalman filter
Naser et al. Infrastructure-free NLoS obstacle detection for autonomous cars
US20170082720A1 (en) Method and apparatus for estimating reflectance parameters and a position of a light source in a scene
US10643078B2 (en) Automatic camera ground plane calibration method and system
JP2007200364A (en) Stereo calibration apparatus and stereo image monitoring apparatus using the same
KR20080079506A (en) Photographing apparatus for tracking object and method thereof
Chen et al. A 3-D surveillance system using multiple integrated cameras
Jiang et al. Shadow-resistant tracking in video
Tomari et al. Multi-view head detection and tracking with long range capability for social navigation planning
Van Crombrugge et al. People tracking with range cameras using density maps and 2D blob splitting
CN107093193B (en) Method for constructing a depth map by means of a camera
US11696034B1 (en) Automatic adjusting of video analytics rules for camera movement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230120

R150 Certificate of patent or registration of utility model

Ref document number: 7219915

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150