JP2021072486A - Imaging system - Google Patents

Imaging system Download PDF

Info

Publication number
JP2021072486A
JP2021072486A JP2019196562A JP2019196562A JP2021072486A JP 2021072486 A JP2021072486 A JP 2021072486A JP 2019196562 A JP2019196562 A JP 2019196562A JP 2019196562 A JP2019196562 A JP 2019196562A JP 2021072486 A JP2021072486 A JP 2021072486A
Authority
JP
Japan
Prior art keywords
camera
shooting
angle
view
stationary object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019196562A
Other languages
Japanese (ja)
Inventor
優太 三吉
Yuta Miyoshi
優太 三吉
内田 行紀
Yukinori Uchida
行紀 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019196562A priority Critical patent/JP2021072486A/en
Publication of JP2021072486A publication Critical patent/JP2021072486A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

To provide an imaging system capable of reducing the load at initial setting.SOLUTION: An imaging system 20 includes: a camera 36 for picking up images of the target space; an actuator 34 for changing the shooting range of the camera 36; a camera control unit 32 that controls the actuator 34; and a communication unit 38 that communicates with the outside. The communication unit receives a piece of condition information for identifying a specific stationary object that should be in the shooting range out of the stationary objects existing in the target space, which is the information to be input from the outside. The camera control unit 32 controls the actuator 34 to set the shooting range of the camera 36 so that the specific stationary object identified by the received condition information is picked up.SELECTED DRAWING: Figure 2

Description

本開示は、撮影システム、特に対象空間を撮影するカメラの撮影範囲(画角)の決定に関する。 The present disclosure relates to a shooting system, particularly to determine a shooting range (angle of view) of a camera that shoots a target space.

近年、AIやIoTの普及にしたがい、ビックデータを用いて様々な機器が制御できるようになっている。例えば、IoT器具等も、カメラやセンサなどで事象を検知し、シチュエーションに応じて自動制御されるようになってきている。 In recent years, with the spread of AI and IoT, it has become possible to control various devices using big data. For example, IoT devices and the like have come to detect events with cameras, sensors, etc., and are automatically controlled according to situations.

店舗等の照明についても、シチュエーションに応じて制御することが提案されている。例えば、特許文献1では、望まれるタイミングにだけ、店舗等の照明空間を演出照明することが開示されている。また、この制御のために、カメラを設け店内に存在する人の数を検出し、人数に応じて演出照明を制御することも示されている。 It has been proposed to control the lighting of stores and the like according to the situation. For example, Patent Document 1 discloses that a lighting space such as a store is directed and illuminated only at a desired timing. It is also shown that for this control, a camera is provided to detect the number of people present in the store, and the effect lighting is controlled according to the number of people.

特開2018−56009号公報JP-A-2018-56009

ここで、照明の制御が高度になるにしたがって、制御の目的を達成するための初期設定が煩雑になる。例えば、カメラを用いて人等の対象物を検出する際、目的に沿った検出が行えるように事前に細かな初期設定(キャリブレーション)が必要となる。そこで、負担の少ない初期設定が行えることが望まれる。 Here, as the control of lighting becomes more sophisticated, the initial setting for achieving the purpose of control becomes complicated. For example, when detecting an object such as a person using a camera, detailed initial setting (calibration) is required in advance so that the detection can be performed according to the purpose. Therefore, it is desired that the initial setting can be performed with less burden.

本開示は、撮影システムであって、対象空間を撮影するカメラと、前記カメラの撮影範囲を変更するアクチュエータと、アクチュエータを制御する制御部と、外部と通信する通信部と、を有し、外部から入力される情報であって、対象空間内に存在する静止物体の中で撮影範囲内に存在すべき特定静止物体を特定する条件情報を前記通信部で受信し、前記制御部は前記アクチュエータを制御して、受信した条件情報により特定される特定静止物体が撮影されるようにカメラの撮影範囲を設定する。 The present disclosure is an imaging system, which includes a camera that photographs an object space, an actuator that changes the imaging range of the camera, a control unit that controls the actuator, and a communication unit that communicates with the outside. The communication unit receives the information input from the communication unit to specify the specific stationary object that should exist in the shooting range among the stationary objects existing in the target space, and the control unit uses the actuator. It controls and sets the shooting range of the camera so that a specific stationary object specified by the received condition information is shot.

前記条件情報は、複数の種類の特定静止物体の個別の個数を含むとよい。 The condition information may include individual numbers of a plurality of types of specific stationary objects.

対象空間内にある複数種類の静止物体のリストを記憶する記憶部を有し、ユーザによって特定された、種類別の個数の静止物体を特定静止物体とするとよい。 It is preferable to have a storage unit for storing a list of a plurality of types of stationary objects in the target space, and to set the number of stationary objects of each type specified by the user as the specific stationary object.

前記静止物体は什器であり、前記リストは什器の種類別のリストであるとよい。 The stationary object may be a fixture, and the list may be a list by type of fixture.

前記アクチュエータによって前記カメラの撮影範囲を変更しながら撮影を行い、撮影された画像から特定静止物体を認識し、特定静止物体を認識した後、撮影範囲を決定するとよい。 It is preferable to perform shooting while changing the shooting range of the camera by the actuator, recognize a specific stationary object from the shot image, recognize the specific stationary object, and then determine the shooting range.

さらに、照明器具を含み、撮影システムによって得た画像に基づき、照明器具による対象空間の照明を制御するとよい。 Further, it is preferable to control the illumination of the target space by the lighting equipment based on the image obtained by the photographing system including the lighting equipment.

本開示によれば、カメラの撮影範囲(画角)を容易に設定することができる。 According to the present disclosure, the shooting range (angle of view) of the camera can be easily set.

実施形態に係る店舗を模式的に示す平面図である。It is a top view which shows typically the store which concerns on embodiment. 撮影システムの構成を示すブロック図である。It is a block diagram which shows the structure of a photographing system. 操作端末の構成を示すブロック図である。It is a block diagram which shows the structure of an operation terminal. 画角設定についての動作を説明するフローチャートである。It is a flowchart explaining the operation about the angle of view setting. 操作端末における表示例であり、(a)は静止物体のメニュー、(b)は個数入力画面を示す。In the display example on the operation terminal, (a) shows a menu of stationary objects, and (b) shows a number input screen. 画像内の棚が3つ映る範囲を説明する図であり、a)が左向き、(b)が右向きの端である。It is a figure explaining the range in which three shelves are reflected in an image, a) is a left-pointing end, and (b) is a right-pointing end. 保存されている最も適切な画角範囲の中心点に画角を決定した場合を示す図である。It is a figure which shows the case where the angle of view is determined at the center point of the most appropriate angle of view range stored. 店内に人がいる状態を示す図であり、(a)は人数が少ない場合、(b)は人数が多い場合である。It is a figure which shows the state which there is a person in a store, (a) is the case where the number of people is small, (b) is the case where the number of people is large.

以下、本開示の実施形態について、図面に基づいて説明する。なお、本開示は、ここに記載される実施形態に限定されるものではない。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. The present disclosure is not limited to the embodiments described herein.

図1は、実施形態に係る店舗を模式的に示す平面図である。この例は、コンビニエンスストアや、洋服店、雑貨店などを想定しており、店内には、商品などを置く複数の棚12、複数の机14、1つのレジ16などが配置されている。 FIG. 1 is a plan view schematically showing a store according to the embodiment. This example assumes a convenience store, a clothing store, a general store, and the like, and a plurality of shelves 12, a plurality of desks 14, a cash register 16 and the like on which products and the like are placed are arranged in the store.

また、照明装置10は、通常天井に設置される複数の発光部を有し店内を照明する。図においては照明装置10を模式的に一点鎖線で示してある。 Further, the lighting device 10 has a plurality of light emitting units normally installed on the ceiling and illuminates the inside of the store. In the figure, the lighting device 10 is schematically shown by an alternate long and short dash line.

また、天井の一方側には、撮影装置30が配置されている。所定の撮影範囲(画角)を有し、店内を撮影する。また、操作端末40は、照明装置10を制御するとともに、撮影装置30の初期設定にも用いられる。 Further, a photographing device 30 is arranged on one side of the ceiling. It has a predetermined shooting range (angle of view) and shoots the inside of the store. The operation terminal 40 controls the lighting device 10 and is also used for the initial setting of the photographing device 30.

「撮影システム」
図2は、照明装置10を含む撮影システム20の構成を示すブロック図である。照明装置10は、発光部22と発光制御部24を含む。発光部22は、例えばLEDで構成され、天井の各所などに個別の照明器具として設けられ、店内全体を照明する。発光制御部24は、発光部22のオンオフ、調光、調色などを制御する。発光部22における複数の照明器具を個別に制御して、店内各所の照明を独立して調整してもよい。
"Shooting system"
FIG. 2 is a block diagram showing a configuration of a photographing system 20 including a lighting device 10. The lighting device 10 includes a light emitting unit 22 and a light emitting control unit 24. The light emitting unit 22 is composed of, for example, LEDs, and is provided as individual lighting fixtures in various places on the ceiling to illuminate the entire store. The light emission control unit 24 controls on / off, dimming, toning, and the like of the light emitting unit 22. A plurality of lighting fixtures in the light emitting unit 22 may be individually controlled to independently adjust the lighting in various places in the store.

発光制御部24には、エッジコンピューティング部26が接続されている。エッジコンピューティング部26は、記憶部26a、演算部26bを有し、各種の演算を行い、特に発光部22の発光についての制御指令を作成し、これを発光制御部24に供給する。また、エッジコンピューティング部26には、表示部28が接続されており、撮影システム20の動作状態などの表示が行われる。また、表示部28に撮影装置30で得た画像を表示してもよい。 An edge computing unit 26 is connected to the light emission control unit 24. The edge computing unit 26 has a storage unit 26a and a calculation unit 26b, performs various calculations, creates a control command for light emission of the light emitting unit 22, and supplies the control command to the light emission control unit 24. Further, a display unit 28 is connected to the edge computing unit 26 to display the operating state of the photographing system 20 and the like. Further, the image obtained by the photographing device 30 may be displayed on the display unit 28.

また、エッジコンピューティング部26には、撮影装置30が接続されており、エッジコンピューティング部26が、撮影装置30を制御する。撮影装置30は、カメラ制御部32、アクチュエータ34、カメラ36を有する。カメラ36は店内の天井などに取り付けられ、所定の画角(上下左右の所定範囲の画角で店内を撮影して、その画像(動画を含む)を得る。アクチュエータ34は、モータなどを有し、カメラ36を上下左右に移動させて、その画角を変更する。カメラ制御部32は、アクチュエータ34を制御して、カメラ36の画角を制御する。また、カメラ制御部32は、カメラ36の露出、精細度、色バランスなどを制御することもできる。 Further, a photographing device 30 is connected to the edge computing unit 26, and the edge computing unit 26 controls the photographing device 30. The photographing device 30 includes a camera control unit 32, an actuator 34, and a camera 36. The camera 36 is attached to the ceiling or the like in the store, and obtains an image (including a moving image) of the inside of the store by photographing the inside of the store with a predetermined angle of view (a predetermined range of angles of view up, down, left, and right). The camera 36 is moved up, down, left and right to change its angle of view. The camera control unit 32 controls the actuator 34 to control the angle of view of the camera 36. The camera control unit 32 controls the camera 36. You can also control the exposure, definition, color balance, etc. of the camera.

エッジコンピューティング部26には、通信部38が接続されている。通信部38は外部と無線通信を行うものであり、通信方式としてはBluetooth(登録商標)などを利用することが好適であるが、超音波式でも赤外線式でも構わない。特に、本実施形態においては、通信部38は、操作端末40と通信をして、エッジコンピューティング部26が操作端末40からの指令により、発光部22の発光や、カメラ36の画角を制御する。 A communication unit 38 is connected to the edge computing unit 26. The communication unit 38 performs wireless communication with the outside, and it is preferable to use Bluetooth (registered trademark) or the like as the communication method, but an ultrasonic type or an infrared type may be used. In particular, in the present embodiment, the communication unit 38 communicates with the operation terminal 40, and the edge computing unit 26 controls the light emission of the light emitting unit 22 and the angle of view of the camera 36 by a command from the operation terminal 40. To do.

さらに、本実施形態において、エッジコンピューティング部26は、画像処理機能を有しており、カメラ36によって得た画像から所定の対象物体を認識することができる。すなわち、予め記憶させている対象物体の画像との比較によって、棚などの静止物体を認識でき、また人などの動体も認識できる。 Further, in the present embodiment, the edge computing unit 26 has an image processing function, and can recognize a predetermined target object from the image obtained by the camera 36. That is, by comparing with the image of the target object stored in advance, a stationary object such as a shelf can be recognized, and a moving object such as a person can also be recognized.

「操作端末」
図3は、操作端末40の構成を示すブロック図である。操作端末40は、通信部60を有し、これによって撮影システム20の通信部38と通信する。通信部60には、処理部52が接続されている。処理部62は、例えばマイクロコンピュータで形成され、各種データ処理を行う。処理部62には、記憶部64が接続され必要なデータがここに適宜記憶される。また、処理部62には、表示部66、操作部68が接続されている。表示部66は、LCD、OLEDなどのディスプレイであり、四角種の表示を行う。また、操作部68は、データ、指令の入力手段であり、例えば表示部66の前面に静電容量方式の検出部を設けたタッチパネルとして構成することができる。
"Operation terminal"
FIG. 3 is a block diagram showing the configuration of the operation terminal 40. The operation terminal 40 has a communication unit 60, which communicates with the communication unit 38 of the photographing system 20. A processing unit 52 is connected to the communication unit 60. The processing unit 62 is formed by, for example, a microcomputer and performs various data processing. A storage unit 64 is connected to the processing unit 62, and necessary data is appropriately stored here. Further, a display unit 66 and an operation unit 68 are connected to the processing unit 62. The display unit 66 is a display such as an LCD or an OLED, and displays a square type. Further, the operation unit 68 is a means for inputting data and commands, and can be configured as, for example, a touch panel provided with a capacitance type detection unit on the front surface of the display unit 66.

例えば、処理部62が記憶部64に記憶されているデータに従い、メニュー画面を表示部66に表示させ、操作部68によりユーザの指などによる操作を検出することで、ユーザが選択して項目を処理部62において認識できる。そして、認識した事項に基づき、通信部60より対応した指令を撮影システム20に送信することで、ユーザが操作端末40を用いて撮影システム20を制御することができる。 For example, the processing unit 62 displays the menu screen on the display unit 66 according to the data stored in the storage unit 64, and the operation unit 68 detects the operation by the user's finger or the like, so that the user selects and selects an item. It can be recognized by the processing unit 62. Then, the user can control the photographing system 20 by using the operation terminal 40 by transmitting the corresponding command from the communication unit 60 to the photographing system 20 based on the recognized matter.

「画角の決定」
カメラを設置して、その画像に基づいて、照明などを制御する場合、カメラがどの方向の画像を取得するかが問題になる。通常は、設置した際に画像を見ながらユーザ(例えば、設置者)が撮影範囲(画角)を設定しているが、この設定は手間がかかる。
"Determining the angle of view"
When a camera is installed and lighting or the like is controlled based on the image, the problem is which direction the camera acquires the image. Normally, the user (for example, the installer) sets the shooting range (angle of view) while looking at the image at the time of installation, but this setting is troublesome.

本実施形態では、撮影装置30における撮影範囲(画角)の決定を、撮影装置30設置後に、操作端末40を利用して行う。 In the present embodiment, the shooting range (angle of view) of the photographing device 30 is determined by using the operation terminal 40 after the photographing device 30 is installed.

図4は、画角設定についての動作を説明するフローチャートである。まず、撮影装置30はすでに設置されており、設置状態での画角の画像を得る。ここで、本実施形態では、撮影装置30の画角を、操作端末によって、自動的に設定できる。 FIG. 4 is a flowchart illustrating an operation for setting the angle of view. First, the photographing device 30 is already installed, and an image of the angle of view in the installed state is obtained. Here, in the present embodiment, the angle of view of the photographing device 30 can be automatically set by the operation terminal.

すなわち、撮影システム20を設置した場合には、ユーザが操作端末40において、画像に含まれるべき静止物体の種類および数(条件情報)を入力する(S11)。すなわち、ユーザは、カメラ36を含む撮影システム20の設置後、監視したい範囲(対象空間)にある静止物体の条件情報(静止物体の種類及び個数)を操作端末40で入力する。 That is, when the photographing system 20 is installed, the user inputs the type and number (condition information) of the stationary objects to be included in the image on the operation terminal 40 (S11). That is, after installing the photographing system 20 including the camera 36, the user inputs the condition information (type and number of stationary objects) of the stationary objects in the range (target space) to be monitored by the operation terminal 40.

図5は、操作端末40における表示部66の表示例であり、(a)は静止物体のリストからなるメニュー、(b)は個数入力画面を示す。図5(a)のメニュー表示の中から、ユーザの指によるタッチで、該当するメニューが選択されてハイライト表示などに変更される。そして、表示部66の下の入力ボタン68aを押下することで、選択されたメニューが取り込まれ、図5(b)に示す個数入力表示に変化する。この画面において、個別の静止物体名にタッチすることで、個数のインクリメントおよびデクリメントの矢印が表示され、これを操作することで個数が入力される。そして、入力ボタン68aを押下することで、各静止物体についての個数が入力できる。図5(b)では、入力ボタン68aの押下によって、「OK」の表示がなされている。なお、静止物体の種類、個数の入力には、公知の各種方法が採用可能である。 5A and 5B are display examples of the display unit 66 on the operation terminal 40, in which FIG. 5A shows a menu consisting of a list of stationary objects, and FIG. 5B shows a number input screen. From the menu display shown in FIG. 5A, the corresponding menu is selected and changed to a highlight display or the like by touching with a finger of the user. Then, by pressing the input button 68a below the display unit 66, the selected menu is taken in, and the display changes to the number input display shown in FIG. 5 (b). On this screen, by touching the name of each stationary object, the arrow of increment and decrement of the number is displayed, and the number is input by operating this. Then, by pressing the input button 68a, the number of each stationary object can be input. In FIG. 5B, "OK" is displayed by pressing the input button 68a. Various known methods can be used for inputting the type and number of stationary objects.

上述のように、操作端末40の表示部66には、店内にある静止物体のメニューが表示される。この例は、コンビニエンスストアにおける例であり、店舗に応じて予め用意しておくとよい。また、ユーザにおいてメニューをアレンジできるようにすることも好適である。特に、各種の店舗において、設置される静止物体について調査し、特定された静止物体について名称を付け、これらを特定静止物体としてその特徴データと関連付けて記憶しておくことで、その後に得たカメラ画像から特定静止物体を認識できる。 As described above, the display unit 66 of the operation terminal 40 displays a menu of stationary objects in the store. This example is an example in a convenience store, and it is preferable to prepare in advance according to the store. It is also preferable to allow the user to arrange the menu. In particular, cameras obtained after that by investigating the stationary objects to be installed in various stores, naming the identified stationary objects, and storing them as specific stationary objects in association with their characteristic data. A specific stationary object can be recognized from the image.

また、特定静止物体は、カメラ画像から認識した静止物体について学習により追加してもよい。すなわち、カメラ画像のエッジ認識などから、静止物体を認識し認識された静止物体に対応する特定静止物体が見つからない場合に、ユーザにおいて定義させたりして、静止物体についての学習が行える。なお、認識した静止物体について、記憶されている特定静止物体と合致した場合にも、ユーザにおいて確認を得ることも好適である。 Further, the specific stationary object may be added by learning about the stationary object recognized from the camera image. That is, when a specific stationary object corresponding to the recognized stationary object is not found by recognizing the stationary object from the edge recognition of the camera image or the like, the user can define the stationary object and learn about the stationary object. It is also preferable that the user obtains confirmation even when the recognized stationary object matches the stored specific stationary object.

ここで、実際の画角の決定の際に、最初に撮影装置30において、全画角をスキャンして画像を得、得られた画像から静止物体を認識し、これについて記憶している特定静止物体と認識したり、新規の静止物体として名称をつけたりすることで、対象空間内の静止物体について認識して、メニューを作成することも好適である。 Here, when determining the actual angle of view, the photographing device 30 first scans the entire angle of view to obtain an image, recognizes a stationary object from the obtained image, and stores the specific stationary object. It is also preferable to recognize a stationary object in the target space and create a menu by recognizing it as an object or naming it as a new stationary object.

ここで、特定静止物体としては、次のようなものが挙げられる。
(店舗内の場合)
・棚、・レジ、・机、・植物、・照明、・椅子、・マネキン、・洋服、・換気扇、など
(屋外の場合)
・電柱、・塀、・手すり、・ガードレール、・街灯、・水道、・門、・木、・花壇、など
なお、初期設定においては、静止物体を認識するが、初期設定終了後にお手は、人物などの動体を認識し、この認識結果に応じて発光部22の発光を制御する。
Here, examples of the specific stationary object include the following.
(In the store)
・ Shelves, ・ Cash registers, ・ Desks, ・ Plants, ・ Lighting, ・ Chairs, ・ Mannequins, ・ Clothes, ・ Ventilation fans, etc. (outdoors)
・ Utility poles, ・ Fences, ・ Handrails, ・ Guardrails, ・ Street lights, ・ Waterworks, ・ Gates, ・ Trees, ・ Flower beds, etc. It recognizes a moving object such as a person, and controls the light emission of the light emitting unit 22 according to the recognition result.

図4に戻り、操作端末40では、S11の入力が終了した場合には、入力された条件情報を撮影システム20に送信する。 Returning to FIG. 4, when the input of S11 is completed, the operation terminal 40 transmits the input condition information to the photographing system 20.

撮影システム20は、送信されてくる静止物体の条件情報を受信する(S13)。条件情報は、通信部38を介しエッジコンピューティング部26において受信され、記憶部26aに保存される。そして、画角を上下左右に動かす(S14)。そして、画角を動かしている間に得られた画像は、エッジコンピューティング部26において画像認識処理が行われ静止物体を識別する(S15)。なお、この静止物体の識別には、公知の手法が適宜際される。なお、記憶部26aには、カメラ36において画角内に映り得る特徴的な静止物体を一通り学習させた学習済のデータが保持されている。 The photographing system 20 receives the transmitted condition information of the stationary object (S13). The condition information is received by the edge computing unit 26 via the communication unit 38 and stored in the storage unit 26a. Then, the angle of view is moved up, down, left and right (S14). Then, the image obtained while moving the angle of view is subjected to image recognition processing in the edge computing unit 26 to identify a stationary object (S15). A known method is appropriately used for identifying the stationary object. The storage unit 26a holds learned data obtained by learning a series of characteristic stationary objects that can be reflected in the angle of view by the camera 36.

このような、静止物体識別を行っている際に、入力されている条件情報(特定静止物体種類、個数)に合致する範囲を検出して記憶する(S16)。すなわち、条件情報を満足する画角に入った位置およびこれを満足しなくなった位置を検出する。 During such stationary object identification, a range matching the input condition information (specific stationary object type, number) is detected and stored (S16). That is, the position within the angle of view that satisfies the condition information and the position that does not satisfy this are detected.

例えば、画角を時計回りに移動させた場合、図6(a)に一点鎖線で示す画角内には2つの棚しかないがここから右に回転すれば、棚3つが画像内に入るのでここが一方側の境界点となる。そして、図6(b)に示す位置において、画像内の棚が2つになる。従って、図6(a)の画角から、図6(b)の画角までの間が棚3個の範囲になる。そこで、このような静止物体の状態についての変化がある位置の情報(位置情報)と棚3個、レジ1個、机2個という状態情報とともに記憶部26aに記憶する。なお、位置情報としては、アクチュエータ34の角度情報(X,Y,Z軸)が挙げられる。 For example, when the angle of view is moved clockwise, there are only two shelves within the angle of view shown by the alternate long and short dash line in FIG. 6A, but if it is rotated to the right from here, three shelves will be included in the image. This is the boundary point on one side. Then, at the position shown in FIG. 6B, there are two shelves in the image. Therefore, the range from the angle of view of FIG. 6 (a) to the angle of view of FIG. 6 (b) is the range of three shelves. Therefore, the storage unit 26a stores the information (position information) of the position where there is a change in the state of the stationary object and the state information of three shelves, one cash register, and two desks. The position information includes angle information (X, Y, Z axes) of the actuator 34.

このようにして、物体識別をしながら、画像中で識別された静止物体の名称や数と、入力された条件情報を比較し、条件情報に最も近い画角の状態情報やアクチュエータの角度情報を得る。ここで、図6(a)、(b)では、平面的な図であるが、カメラ36の上下方向の画角を変更した場合などにおいても、条件情報に合致する画角が得られると考えられる。このような場合には、満足する画角範囲がより広いものを採用するなどして、より適切な1つの画角範囲(2つの位置情報)を決定してこれを記憶するとよい。例えば、すでに保存されている画角範囲に比べ、より適切な画角範囲が検出された場合に画角範囲を更新するとよい。このようにして、条件情報の最も合致した1つの画角範囲が記憶部26aに保存される。 In this way, while identifying the object, the name and number of the stationary objects identified in the image are compared with the input condition information, and the state information of the angle of view closest to the condition information and the angle information of the actuator are obtained. obtain. Here, although FIGS. 6A and 6B are planar views, it is considered that an angle of view that matches the condition information can be obtained even when the angle of view in the vertical direction of the camera 36 is changed. Be done. In such a case, it is preferable to determine a more appropriate angle of view range (two position information) and store it by adopting one having a wider angle of view range to be satisfied. For example, the angle of view range may be updated when a more appropriate angle of view range is detected as compared with the already saved angle of view range. In this way, one angle of view range that best matches the condition information is stored in the storage unit 26a.

そして、すべての画角について変更したかを判定し(S17)、判定がNOであれば、S14に戻り、さらに別の画角についての画像を取得し、適切な画角範囲を更新する。 Then, it is determined whether or not all the angles of view have been changed (S17), and if the determination is NO, the process returns to S14, an image for another angle of view is acquired, and an appropriate angle of view range is updated.

S17の判定でYESであった場合には、画角を決定する(S18)。すなわち、図7に示される、保存されている最も適切な画角範囲の中心点に画角を決定する。このように、中心の画角に決定することで、選択された画角範囲の中でもっとも適切なものが選択できる。図においては、左右方向のみを示しているが、上下方向も同様にして画角の中心が画角範囲の中心に一致するように画角を決定する。そして、決定した画角になるようにアクチュエータ34が制御されて、カメラ36の画角が調整される。 If the determination in S17 is YES, the angle of view is determined (S18). That is, the angle of view is determined at the center point of the most suitable angle of view range that is stored as shown in FIG. 7. By determining the central angle of view in this way, the most appropriate angle of view can be selected from the selected angle of view range. In the figure, only the left-right direction is shown, but the angle of view is determined in the same manner in the vertical direction so that the center of the angle of view coincides with the center of the angle-of-view range. Then, the actuator 34 is controlled so that the angle of view is determined, and the angle of view of the camera 36 is adjusted.

このように、本実施形態によれば、操作端末40に入力された情報によって、自動的にカメラ36の画角が調整されるため、カメラ36の初期設定の作業が容易になる。特に、操作端末40においては、什器等の静止物体の種類別の個数を入力することで足りるため、ユーザの負担が大幅に軽減されて、適切な画角設定が行える。 As described above, according to the present embodiment, the angle of view of the camera 36 is automatically adjusted according to the information input to the operation terminal 40, so that the work of initial setting of the camera 36 becomes easy. In particular, in the operation terminal 40, since it is sufficient to input the number of stationary objects such as fixtures for each type, the burden on the user is greatly reduced, and an appropriate angle of view can be set.

「照明の制御」
ここで、一実施形態の撮影システム20では、カメラ36の画角が決定された状態において、エッジコンピューティング部26はカメラ36において得られた画像に基づき、人数を検出し、照明を制御する。すなわち、対象空間に存在する人の人数に応じて照明の調光、調色を制御する。図8は、店内に人がいる状態を示す図であり、(a)は人数が少ない場合、(b)は人数が多い場合である。例えば図8(a)に示すように人数が少ない場合には、暗めの青が多めの落ち着いた照明にし、図8(b)に示すように人数が多い時には、明るく、比較的赤の多めの活発な照明にする。エッジコンピューティング部26が記憶部26aに記憶されている条件に応じて発光制御部24を介し発光部22の発光を制御する。
"Lighting control"
Here, in the photographing system 20 of one embodiment, in a state where the angle of view of the camera 36 is determined, the edge computing unit 26 detects the number of people and controls the lighting based on the image obtained by the camera 36. That is, the dimming and toning of the lighting are controlled according to the number of people existing in the target space. 8A and 8B are diagrams showing a state in which there are people in the store. FIG. 8A is a case where the number of people is small, and FIG. 8B is a case where the number of people is large. For example, when the number of people is small as shown in FIG. 8 (a), dark blue is used for a large amount of calm lighting, and when the number of people is large as shown in FIG. 8 (b), the lighting is bright and relatively large in red. Use lively lighting. The edge computing unit 26 controls the light emission of the light emitting unit 22 via the light emitting control unit 24 according to the conditions stored in the storage unit 26a.

そこで、対象空間において人数が少ない時、多い時において上述した制御が行われるかどうかを検証することで、適切な画角が設定されているかを検証することができる。 Therefore, it is possible to verify whether an appropriate angle of view is set by verifying whether or not the above-mentioned control is performed when the number of people is small or large in the target space.

「実施形態の効果」
照明の明暗など制御することによって人などの動体の検出精度は変化するが、カメラ36の画角を適切に設定することが重要である。本実施形態に係る撮影システムでは、画角が適切なものに設定されるため、年齢層や行動導線など取得のために適切なデータ取得を見込むことができ、そのデータを蓄積、解析し、サービスや商品陳列を最適化して店舗売上の向上などを見込むことができる。
"Effect of embodiment"
Although the detection accuracy of moving objects such as people changes by controlling the brightness and darkness of lighting, it is important to appropriately set the angle of view of the camera 36. In the photographing system according to the present embodiment, since the angle of view is set to an appropriate one, it is possible to anticipate the acquisition of appropriate data for acquisition such as age group and behavioral lead, and the data is accumulated, analyzed, and serviced. And product display can be optimized to improve store sales.

また、カメラ36の露出などを初期設定(キャリブレーション)する時に照明を自動的に制御することで動体の検知精度を向上することができる。この場合にも、カメラ36の画角を適切に設定することが重要となる。 Further, the accuracy of detecting a moving object can be improved by automatically controlling the lighting when the exposure of the camera 36 and the like are initially set (calibrated). Also in this case, it is important to appropriately set the angle of view of the camera 36.

このように、撮影システム20を運用する上で、カメラ36を用いて人物等を検出する際、正しく検出対象を検出するために事前に細かな設定が必要となる。この事前の設定、キャリブレーションは非常にユーザの負担が大きくなり得る。特に、カメラ36が取り付けられる、照明の取り付けの際に、カメラの方向を考慮して取り付ける必要が出てくる。また、取り付け後にも検知したい場所を映すために人力による微調整が必要となってくる。 As described above, in operating the photographing system 20, when detecting a person or the like using the camera 36, detailed settings are required in advance in order to correctly detect the detection target. This pre-setting and calibration can be very burdensome for the user. In particular, when the camera 36 is attached and the lighting is attached, it is necessary to consider the direction of the camera when attaching the lighting. In addition, fine adjustment by human power is required to show the place to be detected even after installation.

本実施形態によれば、自動でキャリブレーションが行えるため、人力で設定する必要が無くなり、照明の設置方向も厳格に考える必要がなくなる。AIなどを用いる場合でも、店の形状などは店によって異なるため、監視したい範囲を正確に捉えることは難しいが、本実施形態によれば、当該店舗における設定が容易に行える。特に、どこの店舗にでも共通して設置してある什器などを目印とすることで、店舗の監視範囲を漏れなく捉えることが可能となる。 According to this embodiment, since calibration can be performed automatically, it is not necessary to set it manually, and it is not necessary to strictly consider the installation direction of the lighting. Even when AI or the like is used, it is difficult to accurately grasp the range to be monitored because the shape of the store differs depending on the store, but according to the present embodiment, the setting in the store can be easily performed. In particular, by using furniture and the like that are commonly installed in any store as a mark, it is possible to grasp the monitoring range of the store without omission.

10 照明装置、12 棚、14 机、16 レジ、20 撮影システム、22 発光部、24 発光制御部、26 エッジコンピューティング部、26a,64 記憶部、26b 演算部、28,66 表示部、30 撮影装置、32 カメラ制御部、34 アクチュエータ、36 カメラ、36 カメラ制御部、38,60 通信部、40 操作端末、52 処理部62 処理部、68 操作部、68a 入力ボタン。
10 Lighting device, 12 shelves, 14 desks, 16 cash register, 20 shooting system, 22 light emitting unit, 24 light emitting control unit, 26 edge computing unit, 26a, 64 storage unit, 26b arithmetic unit, 28, 66 display unit, 30 shooting Device, 32 camera control unit, 34 actuator, 36 camera, 36 camera control unit, 38, 60 communication unit, 40 operation terminal, 52 processing unit 62 processing unit, 68 operation unit, 68a input button.

Claims (6)

撮影システムであって、
対象空間を撮影するカメラと、
前記カメラの撮影範囲を変更するアクチュエータと、
アクチュエータを制御する制御部と、
外部と通信する通信部と、
を有し、
外部から入力される情報であって、対象空間内に存在する静止物体の中で撮影範囲内に存在すべき特定静止物体を特定する条件情報を前記通信部で受信し、前記制御部は前記アクチュエータを制御して、受信した条件情報により特定される特定静止物体が撮影されるようにカメラの撮影範囲を設定する、
撮影システム。
It ’s a shooting system,
A camera that shoots the target space and
An actuator that changes the shooting range of the camera and
A control unit that controls the actuator and
With the communication unit that communicates with the outside
Have,
The communication unit receives condition information that is input from the outside and specifies a specific stationary object that should exist in the shooting range among the stationary objects existing in the target space, and the control unit receives the actuator. To set the shooting range of the camera so that a specific stationary object specified by the received condition information is shot.
Shooting system.
請求項1に記載の撮影システムであって、
前記条件情報は、複数の種類の特定静止物体の個別の個数を含む、
撮影システム。
The photographing system according to claim 1.
The condition information includes individual numbers of a plurality of types of specific stationary objects.
Shooting system.
請求項1または2に記載の撮影システムであって、
対象空間内にある複数種類の静止物体のリストを記憶する記憶部を有し、
ユーザによって特定された、種類別の個数の静止物体を特定静止物体とする、
撮影システム。
The photographing system according to claim 1 or 2.
It has a storage unit that stores a list of multiple types of stationary objects in the target space.
Let the number of stationary objects of each type specified by the user be the specified stationary objects,
Shooting system.
請求項3に記載の撮影システムであって、
前記静止物体は什器であり、前記リストは什器の種類別のリストである、
撮影システム。
The photographing system according to claim 3.
The stationary object is a fixture, and the list is a list by type of fixture.
Shooting system.
請求項1に記載の撮影システムであって、
前記アクチュエータによって前記カメラの撮影範囲を変更しながら撮影を行い、撮影された画像から特定静止物体を認識し、特定静止物体を認識した後、撮影範囲を決定する、
撮影システム。
The photographing system according to claim 1.
Shooting is performed while changing the shooting range of the camera by the actuator, a specific stationary object is recognized from the shot image, the specific stationary object is recognized, and then the shooting range is determined.
Shooting system.
請求項1〜5のいずれか1つに記載の撮影システムであって、
さらに照明器具を含み、
撮影システムによって得た画像に基づき、照明器具による対象空間の照明を制御する、
撮影システム。



The photographing system according to any one of claims 1 to 5.
Including lighting equipment,
Control the lighting of the target space by the lighting equipment based on the image obtained by the shooting system.
Shooting system.



JP2019196562A 2019-10-29 2019-10-29 Imaging system Pending JP2021072486A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019196562A JP2021072486A (en) 2019-10-29 2019-10-29 Imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019196562A JP2021072486A (en) 2019-10-29 2019-10-29 Imaging system

Publications (1)

Publication Number Publication Date
JP2021072486A true JP2021072486A (en) 2021-05-06

Family

ID=75713788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019196562A Pending JP2021072486A (en) 2019-10-29 2019-10-29 Imaging system

Country Status (1)

Country Link
JP (1) JP2021072486A (en)

Similar Documents

Publication Publication Date Title
US9888546B2 (en) Lighting fixture sensor network
US9504126B2 (en) Coded light detector
US8068225B2 (en) Color matching for display system for shops
CN105122943B (en) A method of characterizing a light source and a mobile device
CN106797692A (en) Illumination preference ruling
US20170108838A1 (en) Building lighting and temperature control with an augmented reality system
EP2827683A1 (en) Information processing device, image sensor device, and program
KR101453806B1 (en) Dimming Control System Using Image Data
CN103168505A (en) A method and a user interaction system for controlling a lighting system, a portable electronic device and a computer program product
CN104281276B (en) Information processing unit, operation input detection method, program and storage medium
CN106165538B (en) Method and apparatus for controlling lighting unit based on the actual measurement power of related illuminating equipment and/or movement
JP6863475B2 (en) Lighting control system and lighting control method
KR20120107994A (en) System and method for associating of lighting scenes to physical objects
EP3338516B1 (en) A method of visualizing a shape of a linear lighting device
WO2019127317A1 (en) Control method and control system for light fixture, and electronic device
CN110012242A (en) Electronic equipment and its control method
TW201419944A (en) System for controlling LED to illuminate and method thereof
CN113545028A (en) Gain control for face authentication
JP5403779B2 (en) Lighting system
EP2805583B1 (en) Method for detecting and controlling coded light sources
JP7286159B2 (en) Depth cues by thermal sensing
JP2021072486A (en) Imaging system
CN106331465A (en) Image acquisition device and auxiliary shooting method thereof
JP7222391B2 (en) Information processing device, information processing method, and program
EP3928595B1 (en) A controller for controlling light sources and a method thereof