JP2022038824A - Illumination system, illumination presentation method, and program - Google Patents

Illumination system, illumination presentation method, and program Download PDF

Info

Publication number
JP2022038824A
JP2022038824A JP2020143501A JP2020143501A JP2022038824A JP 2022038824 A JP2022038824 A JP 2022038824A JP 2020143501 A JP2020143501 A JP 2020143501A JP 2020143501 A JP2020143501 A JP 2020143501A JP 2022038824 A JP2022038824 A JP 2022038824A
Authority
JP
Japan
Prior art keywords
lighting
effect
information
attributes
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020143501A
Other languages
Japanese (ja)
Inventor
徹 姫野
Toru Himeno
薫 村上
Kaoru Murakami
幸司 坂本
Koji Sakamoto
宏司 平松
Koji Hiramatsu
充 内畠
Mitsuru Uchihata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2020143501A priority Critical patent/JP2022038824A/en
Publication of JP2022038824A publication Critical patent/JP2022038824A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an illumination system capable of easily generating presentation information for performing illumination presentation with using multiple pieces of illumination equipment.SOLUTION: An illumination system 1 includes: multiple pieces of illumination equipment 10; a terminal unit 30 that generates presentation information for performing illumination presentation using the multiple pieces of illumination equipment 10; and an illumination controller 20 that performs the illumination presentation by controlling the lighting of the multiple pieces of illumination equipment 10 based on the presentation information. The terminal unit 30 has an information processing unit 35 that generates presentation information based on the attributes of an object 51 contained in a video content 50.SELECTED DRAWING: Figure 3

Description

本発明は、複数の照明器具を点灯制御して照明演出を行う照明システム、照明演出方法、および、プログラムに関する。 The present invention relates to a lighting system, a lighting effect method, and a program for controlling lighting of a plurality of lighting fixtures to produce a lighting effect.

従来、複数の照明器具を点灯制御して照明演出を行う照明システムが知られている。この種の照明システムの一つとして特許文献1には、グラフィック情報のピクセルデータ位置を空間内の位置座標にマッピングし、グラフィック情報を照明器具の点灯制御情報に変換する照明システムが開示されている。この照明システムでは、グラフィック情報に基づく照明効果が発生するように、照明器具を点灯制御している。 Conventionally, there is known a lighting system that controls lighting of a plurality of lighting fixtures to produce a lighting effect. As one of this type of lighting system, Patent Document 1 discloses a lighting system that maps the pixel data position of graphic information to the position coordinates in space and converts the graphic information into lighting control information of a lighting fixture. .. In this lighting system, lighting is controlled so that a lighting effect based on graphic information is generated.

特許第4173091号公報Japanese Patent No. 4173091

しかしながら、特許文献1に開示されている照明システムでは、グラフィック情報を照明器具の点灯制御情報に変換する必要があり、複数の照明器具による照明演出を行うのに多大な労力を有する。 However, in the lighting system disclosed in Patent Document 1, it is necessary to convert graphic information into lighting control information of a lighting fixture, and it is very laborious to perform a lighting effect by a plurality of lighting fixtures.

そこで、本発明は、複数の照明器具による照明演出を行うための演出情報を簡易に生成することができる照明システム等を提供する。 Therefore, the present invention provides a lighting system or the like that can easily generate effect information for performing a lighting effect by a plurality of lighting fixtures.

本発明の照明システムの一態様は、複数の照明器具と、前記複数の照明器具による照明演出を行うための演出情報を生成する端末装置と、前記演出情報に基づいて、前記複数の照明器具を点灯制御して前記照明演出を行う照明コントローラと、を備え、前記端末装置は、動画コンテンツに含まれるオブジェクトの属性に基づいて、前記演出情報を生成する情報処理部を有する。 One aspect of the lighting system of the present invention is a plurality of lighting fixtures, a terminal device that generates effect information for performing a lighting effect by the plurality of lighting fixtures, and the plurality of lighting fixtures based on the effect information. The terminal device includes a lighting controller that controls lighting to perform the lighting effect, and the terminal device has an information processing unit that generates the effect information based on the attributes of objects included in the moving image content.

また、本発明の照明演出方法の一態様は、複数の照明器具による照明演出を行う照明演出方法であって、動画コンテンツに含まれるオブジェクトの属性に基づいて、前記照明演出を行うための演出情報を生成し、前記演出情報に基づいて、前記複数の照明器具を点灯制御して前記照明演出を行う。 Further, one aspect of the lighting effect method of the present invention is a lighting effect method for performing a lighting effect by a plurality of lighting fixtures, and the effect information for performing the lighting effect based on the attributes of objects included in the moving image content. Is generated, and the lighting control is performed by controlling the lighting of the plurality of lighting fixtures based on the effect information.

また、本発明のプログラムの一態様は、動画コンテンツから抽出したオブジェクトの属性を変更するステップと、変更後の前記オブジェクトの属性に基づいて、複数の照明器具を点灯制御して照明演出を行うための演出情報を生成するステップと、を含む演出情報生成方法をコンピュータに実行させる。 Further, one aspect of the program of the present invention is to control the lighting of a plurality of lighting fixtures based on the step of changing the attribute of the object extracted from the moving image content and the changed attribute of the object to perform the lighting effect. Let the computer execute the step of generating the effect information and the effect information generation method including.

本発明の照明システム等によれば、複数の照明器具による照明演出を行うための演出情報を簡易に生成することができる。 According to the lighting system and the like of the present invention, it is possible to easily generate effect information for performing a lighting effect by a plurality of lighting fixtures.

実施の形態に係る照明演出方法の概要を示す図である。It is a figure which shows the outline of the lighting production method which concerns on embodiment. 実施の形態に係る照明システム、ならびに、照明システムを構成する複数の照明器具、照明コントローラおよび端末装置を示す概略図である。It is a schematic diagram which shows the lighting system which concerns on embodiment, and a plurality of lighting fixtures, a lighting controller and a terminal apparatus which constitute a lighting system. 実施の形態に係る照明システムのブロック構成図である。It is a block block diagram of the lighting system which concerns on embodiment. 実施の形態における複数の照明器具の配置を示す図である。It is a figure which shows the arrangement of a plurality of lighting fixtures in an embodiment. 実施の形態における端末装置の画面を示す図である。It is a figure which shows the screen of the terminal apparatus in embodiment. 演出情報を生成する際の元データとなる動画コンテンツの一例を示す図である。It is a figure which shows an example of the moving image content which becomes the original data when generating the production information. 端末装置の記憶部に保存される複数のオブジェクトおよび各オブジェクトの属性を示す図である。It is a figure which shows a plurality of objects which are stored in the storage part of a terminal apparatus, and the attribute of each object. 演出情報を生成するために参考とするオブジェクトの一例を示す図である。It is a figure which shows an example of the object which is referred to for generating the effect information. 図8に示すオブジェクトの属性が変更される様子を示す図である。It is a figure which shows how the attribute of the object shown in FIG. 8 is changed. 実施の形態に係る照明演出方法を示すフローチャートである。It is a flowchart which shows the lighting effect method which concerns on embodiment. 図10のステップS13において端末装置に表示される画面を示す図である。It is a figure which shows the screen which is displayed on the terminal apparatus in step S13 of FIG. 実施の形態の変形例1に係る照明演出方法を示すフローチャートである。It is a flowchart which shows the lighting effect method which concerns on the modification 1 of embodiment. 実施の形態の変形例2に係る照明演出方法を示すフローチャートである。It is a flowchart which shows the lighting effect method which concerns on the modification 2 of embodiment.

(実施の形態)
以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、本発明の一形態に係る実現形態を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。本発明の実現形態は、現行の独立請求項に限定されるものではなく、他の独立請求項によっても表現され得る。
(Embodiment)
Hereinafter, embodiments will be specifically described with reference to the drawings. In addition, all of the embodiments described below show a specific example of the present invention. The numerical values, shapes, materials, components, arrangement positions and connection forms of the components, steps, the order of steps, etc. shown in the following embodiments are examples, and are not intended to limit the present invention. Further, among the components in the following embodiments, the components not described in the independent claims indicating the embodiment according to the embodiment of the present invention will be described as arbitrary components. The embodiment of the present invention is not limited to the current independent claims, but may be expressed by other independent claims.

なお、各図は模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付しており、重複する説明は省略または簡略化される場合がある。 It should be noted that each figure is a schematic view and is not necessarily exactly shown. Further, in each figure, the same reference numerals are given to substantially the same configurations, and duplicate explanations may be omitted or simplified.

[1.実施の形態の概要]
本実施の形態に係る照明システムは、建物の壁、床、天井などに設けられた複数の照明器具を点灯制御して照明演出を行うシステムである。複数の照明器具による照明演出を行うためには、照明演出を行うための演出情報が必要となるが、演出情報を一から生成するのは多大な労力を要する。そこで、演出情報を簡易に生成して照明演出を行う方法について、図1を参照しながら説明する。
[1. Outline of the embodiment]
The lighting system according to the present embodiment is a system that controls lighting of a plurality of lighting fixtures provided on the walls, floors, ceilings, etc. of a building to produce lighting effects. In order to perform a lighting effect by a plurality of lighting fixtures, the effect information for performing the lighting effect is required, but it takes a lot of labor to generate the effect information from scratch. Therefore, a method of simply generating the effect information and performing the lighting effect will be described with reference to FIG. 1.

図1は、照明演出方法の概要を示す図である。本実施の形態における演出情報は、動画コンテンツからオブジェクトを抽出し、抽出したオブジェクトの属性を変更することで生成される。 FIG. 1 is a diagram showing an outline of a lighting effect method. The effect information in the present embodiment is generated by extracting an object from the moving image content and changing the attribute of the extracted object.

図1の(a)には、動画コンテンツ50の一部である1つ目から4つ目のフレームが順に示されている。動画コンテンツ50には、人、車、犬などの複数のオブジェクト51が含まれている。本実施の形態では、まず、動画コンテンツ50から複数のオブジェクト51を抽出する。 In FIG. 1A, the first to fourth frames that are a part of the moving image content 50 are shown in order. The moving image content 50 includes a plurality of objects 51 such as a person, a car, and a dog. In the present embodiment, first, a plurality of objects 51 are extracted from the moving image content 50.

図1の(b)には、動画コンテンツ50から抽出されたオブジェクト51が示されている。この例では、動画コンテンツ50から抽出した複数のオブジェクト51の中から、演出情報を生成するために参考とする車のオブジェクト51が示されている。同図には、車のオブジェクト51が1フレームごとに画面の左上へ移動する様子が示されている。 FIG. 1B shows an object 51 extracted from the moving image content 50. In this example, a car object 51 used as a reference for generating effect information is shown from a plurality of objects 51 extracted from the moving image content 50. The figure shows how the car object 51 moves to the upper left of the screen every frame.

図1の(c)には、複数の照明器具10による照明演出が行われている様子が示されている。この例では、オブジェクト51の属性のうち、動きに関する属性は変更されず、色および形状に関する属性が変更されている。そして、変更後の属性に基づいて演出情報が生成され、演出情報に基づいて複数の照明器具が点灯制御されている。具体的には、図1の(c)には、オブジェクト51である白い車が有色で丸形の明かりに変更され、また、明かりが右下から左上に向かって移動する様子が示されている。 FIG. 1 (c) shows how a plurality of lighting fixtures 10 are used for lighting effects. In this example, among the attributes of the object 51, the attributes related to movement are not changed, and the attributes related to color and shape are changed. Then, the effect information is generated based on the changed attribute, and the lighting of a plurality of lighting fixtures is controlled based on the effect information. Specifically, (c) of FIG. 1 shows that the white car, which is the object 51, is changed to a colored and round light, and the light moves from the lower right to the upper left. ..

このように、動画コンテンツ50に含まれるオブジェクト51を素材として演出情報を生成することで、照明演出を行うための演出情報を簡易に作成することができる。以下、演出情報を簡易に生成するための照明システムの構成等について説明する。 In this way, by generating the effect information using the object 51 included in the moving image content 50 as a material, it is possible to easily create the effect information for performing the lighting effect. Hereinafter, the configuration and the like of the lighting system for easily generating the effect information will be described.

[2.照明システムの構成]
本実施の形態に係る照明システム1の構成について、図2~図4を参照しながら説明する。
[2. Lighting system configuration]
The configuration of the lighting system 1 according to the present embodiment will be described with reference to FIGS. 2 to 4.

図2は、照明システム1、ならびに、照明システム1を構成する複数の照明器具10、照明コントローラ20および端末装置30を示す概略図である。図3は、照明システム1のブロック構成図である。図4は、複数の照明器具10の配置を示す図である。 FIG. 2 is a schematic view showing a lighting system 1, a plurality of lighting fixtures 10, a lighting controller 20, and a terminal device 30 constituting the lighting system 1. FIG. 3 is a block configuration diagram of the lighting system 1. FIG. 4 is a diagram showing the arrangement of a plurality of lighting fixtures 10.

図2および図3に示すように、照明システム1は、照明光を出射する複数の照明器具10と、複数の照明器具10を点灯制御する照明コントローラ20と、情報端末である端末装置30とを備えている。 As shown in FIGS. 2 and 3, the lighting system 1 includes a plurality of lighting fixtures 10 that emit lighting light, a lighting controller 20 that controls lighting of the plurality of lighting fixtures 10, and a terminal device 30 that is an information terminal. I have.

複数の照明器具10と照明コントローラ20とは有線によって通信接続されている。照明コントローラ20と端末装置30とは無線r1によって通信接続されている。なお、端末装置30は、インターネットを介して照明コントローラ20に通信接続されていてもよい。 The plurality of lighting fixtures 10 and the lighting controller 20 are communicated and connected by wire. The lighting controller 20 and the terminal device 30 are communicated and connected by wireless r1. The terminal device 30 may be communicatively connected to the lighting controller 20 via the Internet.

図4に示すように、照明器具10は、ビル、塔などの建物90に設置される。照明器具10は、例えば、建物90の外壁に設けられる外灯である。複数の照明器具10は、複数の建物90に、所定の間隔で点在するように配置される。複数の照明器具10の位置データは、2次元座標(x、y)のデータとして、後述する端末装置30に保存されている。 As shown in FIG. 4, the luminaire 10 is installed in a building 90 such as a building or a tower. The luminaire 10 is, for example, an outdoor light provided on the outer wall of the building 90. The plurality of lighting fixtures 10 are arranged in the plurality of buildings 90 so as to be scattered at predetermined intervals. The position data of the plurality of lighting fixtures 10 is stored in the terminal device 30 described later as data of two-dimensional coordinates (x, y).

図4には44台の照明器具10が示されているが、それに限られず、照明器具10は、建物90に100台以上設置されてもよい。複数の照明器具10によって照明演出される演出面の全体の面積は、例えば100m以上1600m以下である。隣り合う照明器具10の間隔は、例えば0.5m以上5m以下である。照明器具10は、建物90の外壁に設けられているが、それに限られず、窓の内側である建物90の内部に設けられていてもよい。 Although 44 lighting fixtures 10 are shown in FIG. 4, 100 or more lighting fixtures 10 may be installed in the building 90 without limitation. The total area of the effect surface to be illuminated by the plurality of lighting fixtures 10 is, for example, 100 m 2 or more and 1600 m 2 or less. The distance between the adjacent lighting fixtures 10 is, for example, 0.5 m or more and 5 m or less. The lighting fixture 10 is provided on the outer wall of the building 90, but is not limited to the lighting fixture 10, and may be provided inside the building 90, which is the inside of the window.

各照明器具10は、例えば、赤、緑または青の光を出射する複数の発光素子を有している。照明器具10は、複数の発光素子から同時に出射された光が合成されることで形成される無地の光を出射する。各照明器具10は、それぞれが独立して、調光、調色、点灯、点滅、消灯可能である。 Each luminaire 10 has, for example, a plurality of light emitting elements that emit red, green, or blue light. The luminaire 10 emits plain light formed by synthesizing light emitted simultaneously from a plurality of light emitting elements. Each luminaire 10 can independently be dimmed, toned, turned on, blinked, and turned off.

各照明器具10は、照明コントローラ20に接続され、照明コントローラ20から送信される演出情報に基づいて点灯制御される。演出情報には、照明器具10から出射する光の色、明るさ、および、光を出射するスケジュール等に関する情報が含まれている。 Each lighting fixture 10 is connected to the lighting controller 20 and is controlled to be lit based on the effect information transmitted from the lighting controller 20. The effect information includes information regarding the color and brightness of the light emitted from the lighting fixture 10, the schedule for emitting the light, and the like.

図5は、端末装置30の画面を示す図である。端末装置30は、照明演出を行うための演出情報を生成する装置である。端末装置30は、例えば、スマートフォン、タブレット端末またはパーソナルコンピュータなどの情報端末である。 FIG. 5 is a diagram showing a screen of the terminal device 30. The terminal device 30 is a device that generates effect information for performing a lighting effect. The terminal device 30 is an information terminal such as a smartphone, a tablet terminal, or a personal computer.

図3に示すように、端末装置30は、第1の入力部31と、第2の入力部32と、データ取得部33と、情報処理部35と、記憶部36と、表示部37と、情報出力部38とを備えている。第1の入力部31、第2の入力部32、データ取得部33、記憶部36、表示部37および情報出力部38のそれぞれは、情報処理部35に接続されている。 As shown in FIG. 3, the terminal device 30 includes a first input unit 31, a second input unit 32, a data acquisition unit 33, an information processing unit 35, a storage unit 36, and a display unit 37. It is provided with an information output unit 38. Each of the first input unit 31, the second input unit 32, the data acquisition unit 33, the storage unit 36, the display unit 37, and the information output unit 38 is connected to the information processing unit 35.

第1の入力部31は、動画コンテンツ50のデータ入力を受け付けるコネクタまたは受信モジュールである。動画コンテンツ50は、例えば、カメラ等で撮像した動画データであるが、それに限られず、ダウンロード等により取得した動画データであってもよい。 The first input unit 31 is a connector or a receiving module that receives data input of the moving image content 50. The moving image content 50 is, for example, moving image data captured by a camera or the like, but is not limited to this, and may be moving image data acquired by downloading or the like.

第2の入力部32は、ユーザからの操作入力を受け付けるタッチパネル、マウスまたはキーボードである。端末装置30では、第2の入力部32で受け付けた操作入力に基づいて、演出情報の編集が行われる。 The second input unit 32 is a touch panel, mouse, or keyboard that receives operation input from the user. In the terminal device 30, the effect information is edited based on the operation input received by the second input unit 32.

表示部37は、情報処理部35による各種の処理結果を表示するディスプレイである。表示部37がタッチパネルである場合、表示部37は、第2の入力部32の機能を兼用していてもよい。 The display unit 37 is a display that displays various processing results by the information processing unit 35. When the display unit 37 is a touch panel, the display unit 37 may also have the function of the second input unit 32.

データ取得部33は、動画コンテンツ50から複数のオブジェクト51および各オブジェクト51の属性を取得する機能を有している。動画コンテンツ50は、演出情報を生成するための元データである。 The data acquisition unit 33 has a function of acquiring a plurality of objects 51 and attributes of each object 51 from the moving image content 50. The moving image content 50 is the original data for generating the effect information.

オブジェクト51は、動画コンテンツ50の中に存在する物である。例えば、オブジェクト51は、人、動物、車や飛行機などの移動体、および、太陽、雲、雷などの自然物の少なくとも1つである。なお、オブジェクト51は、動きの少ない植物および背景物であってもよい。 The object 51 is an object existing in the moving image content 50. For example, the object 51 is at least one of a person, an animal, a moving object such as a car or an airplane, and a natural object such as the sun, clouds, and lightning. The object 51 may be a plant with little movement or a background object.

オブジェクト51の属性は、オブジェクト51の特徴または性質を表す。例えば、オブジェクト51の属性は、オブジェクト51の色、オブジェクト51の移動ルートや移動スピードなどの動き、および、オブジェクト51が表示される時刻を示す表示スケジュールの少なくとも1つである。なお、オブジェクト51の属性は、オブジェクト51の形状および大きさであってもよい。 The attributes of the object 51 represent the characteristics or properties of the object 51. For example, the attribute of the object 51 is at least one of a display schedule indicating the color of the object 51, the movement of the object 51 such as the movement route and the movement speed, and the time when the object 51 is displayed. The attribute of the object 51 may be the shape and size of the object 51.

データ取得部33は、画像分析を行うアプリケーションソフトを用いることで、動画コンテンツ50から複数のオブジェクト51および各オブジェクト51の属性を抽出する。画像分析を行うアプリケーションソフトとしては、例えば、アマゾンウェブサービスジャパン株式会社によって提供されている「Amazon Rekognition」を利用することができる。データ取得部33は、動画コンテンツ50からオブジェクトを抽出する際、複数のオブジェクト51ごとにオブジェクト51の属性を取得する。なお、データ取得部33は、情報処理部35内に設けられていてもよい。 The data acquisition unit 33 extracts a plurality of objects 51 and the attributes of each object 51 from the moving image content 50 by using application software that performs image analysis. As the application software for image analysis, for example, "Amazon Rekognition" provided by Amazon Web Services Japan Co., Ltd. can be used. When extracting an object from the moving image content 50, the data acquisition unit 33 acquires the attribute of the object 51 for each of the plurality of objects 51. The data acquisition unit 33 may be provided in the information processing unit 35.

情報処理部35は、プロセッサまたはマイクロコンピュータなどによって実現される。情報処理部35は、動画コンテンツ50に含まれるオブジェクト51およびオブジェクト51の属性に基づいて、複数の照明器具10を点灯制御して照明演出するための演出情報を生成する。 The information processing unit 35 is realized by a processor, a microcomputer, or the like. The information processing unit 35 generates effect information for controlling lighting of a plurality of lighting fixtures 10 and producing lighting effects based on the objects 51 and the attributes of the objects 51 included in the moving image content 50.

記憶部36には、情報処理部35によって実行されるアプリケーションプログラム等のプログラムが保存されている。記憶部36は、スタティックRAM(Random Access Memory)若しくはダイナミックRAM等の揮発性の記憶装置、または、フラッシュメモリ等の不揮発性の記憶装置等によって実現される。 A program such as an application program executed by the information processing unit 35 is stored in the storage unit 36. The storage unit 36 is realized by a volatile storage device such as a static RAM (Random Access Memory) or a dynamic RAM, or a non-volatile storage device such as a flash memory.

記憶部36には、各照明器具10の位置データ、動画コンテンツ50のデータ、および、画像分析を行うアプリケーションソフトが保存されている。また、記憶部36には、アプリケーションソフトを用いて抽出されたオブジェクト51およびオブジェクト51の属性が保存される。 The storage unit 36 stores the position data of each lighting fixture 10, the data of the moving image content 50, and the application software for performing image analysis. Further, the storage unit 36 stores the objects 51 and the attributes of the objects 51 extracted by using the application software.

図6は、演出情報を生成する際の元データとなる動画コンテンツ50の一例を示す図である。図7は、記憶部36に保存される複数のオブジェクト51および各オブジェクト51の属性を示す図である。 FIG. 6 is a diagram showing an example of the moving image content 50 which is the original data when generating the effect information. FIG. 7 is a diagram showing a plurality of objects 51 stored in the storage unit 36 and the attributes of each object 51.

図6の(a)に示す動画コンテンツ50aには、人、車などの複数のオブジェクト51が含まれ、図6の(b)に示す動画コンテンツ50bには、人、犬、雷などの複数のオブジェクト51が含まれている。 The moving image content 50a shown in FIG. 6A includes a plurality of objects 51 such as a person and a car, and the moving image content 50b shown in FIG. 6B includes a plurality of objects such as a person, a dog, and lightning. The object 51 is included.

図7に示すように、記憶部36には、動画コンテンツ50a、50bから抽出された複数のオブジェクト51と、各オブジェクト51の色に関する属性、動きに関する属性および表示スケジュールに関する属性とが、互いに関連付けられて保存されている。また、記憶部36には、データ取得部33にて取得したオブジェクト51の属性の内容が、デフォルトとして保存される。 As shown in FIG. 7, in the storage unit 36, a plurality of objects 51 extracted from the video contents 50a and 50b, and attributes related to color, movement, and display schedule of each object 51 are associated with each other. It is saved. Further, in the storage unit 36, the content of the attribute of the object 51 acquired by the data acquisition unit 33 is stored as a default.

情報処理部35は、記憶部36に保存された複数のオブジェクト51の中から、照明演出を行うために参考とするオブジェクトを選択する。 The information processing unit 35 selects an object to be referred to for performing the lighting effect from the plurality of objects 51 stored in the storage unit 36.

図8は、照明演出を行うために参考とするオブジェクトの一例を示す図である。この図では、参考とするオブジェクト51として、犬が選択されている。 FIG. 8 is a diagram showing an example of an object to be referred to for performing a lighting effect. In this figure, a dog is selected as the reference object 51.

情報処理部35は、選択したオブジェクト51の属性を変更することで、演出情報を生成する。また、情報処理部35は、オブジェクト51の属性の変更に加え、照明器具10の位置データに合わせて演出情報を生成する。 The information processing unit 35 generates effect information by changing the attributes of the selected object 51. Further, in addition to changing the attributes of the object 51, the information processing unit 35 generates effect information according to the position data of the lighting fixture 10.

図9は、図8に示すオブジェクト51の属性が変更される様子を示す図である。図9では、理解を容易にするため、オブジェクト51の属性が変更される様子を、照明演出を行う場面に変換して表現している。ここでは、オブジェクト51の動きに関する属性が変更されている例が示されている。具体的には、図9の(a)に示すように、オブジェクト51である犬が照明器具10の明かり(図9の(a)に示す丸印)に変更され、さらに、図9の(b)に示すように、照明器具10の明かり(図9の(b)に示す丸印)の動きが右側および上下に拡大されている。また、照明器具10の点灯範囲が照明器具10の位置データに収まるように調整されている。なお、同図の矢印は、照明器具10が点灯する順番を示している。このように、動画コンテンツ50に含まれるオブジェクト51の属性に基づいて演出情報を生成することで、演出情報を簡易に作成することができる。 FIG. 9 is a diagram showing how the attributes of the object 51 shown in FIG. 8 are changed. In FIG. 9, in order to facilitate understanding, the appearance of changing the attributes of the object 51 is expressed by converting it into a scene where a lighting effect is performed. Here, an example in which the attribute related to the movement of the object 51 is changed is shown. Specifically, as shown in FIG. 9 (a), the dog, which is the object 51, is changed to the light of the lighting fixture 10 (circle marked in FIG. 9 (a)), and further, in FIG. 9 (b). ), The movement of the light (circle shown in FIG. 9B) of the luminaire 10 is magnified to the right and up and down. Further, the lighting range of the lighting fixture 10 is adjusted so as to fit in the position data of the lighting fixture 10. The arrows in the figure indicate the order in which the luminaire 10 is lit. In this way, by generating the effect information based on the attributes of the object 51 included in the moving image content 50, the effect information can be easily created.

なお、上記では、動きに関する属性として、移動ルートを変更する例を示したが、それに限られない。例えば、移動スピードを速くまたは遅くすることで、動きに関する属性を変更してもよい。情報処理部35にて生成された演出情報は、情報出力部38を介して外部へ出力される。 In the above, an example of changing the movement route is shown as an attribute related to movement, but the present invention is not limited to this. For example, the movement-related attributes may be changed by increasing or decreasing the movement speed. The effect information generated by the information processing unit 35 is output to the outside via the information output unit 38.

情報出力部38は、アンテナおよび無線モジュールなどによって構成され、無線r1で照明コントローラ20と通信可能である。なお、情報出力部38は、有線通信で照明コントローラ20と通信可能であってもよい。情報出力部38は、USBメモリなどの記録媒体に演出情報を記録することで、演出情報を外部へ出力してもよい。 The information output unit 38 is composed of an antenna, a wireless module, and the like, and can communicate with the lighting controller 20 by wireless r1. The information output unit 38 may be able to communicate with the lighting controller 20 by wire communication. The information output unit 38 may output the effect information to the outside by recording the effect information on a recording medium such as a USB memory.

照明コントローラ20は、複数の照明器具10を点灯制御するコントローラである。照明コントローラ20は、端末装置30から出力された演出情報を取得し、この演出情報に基づいて、複数の照明器具10を点灯制御する。これにより、照明システム1において、複数の照明器具10による照明演出が行われる。 The lighting controller 20 is a controller that controls lighting of a plurality of lighting fixtures 10. The lighting controller 20 acquires the effect information output from the terminal device 30, and controls the lighting of the plurality of lighting fixtures 10 based on the effect information. As a result, in the lighting system 1, the lighting effect is performed by the plurality of lighting fixtures 10.

[3.照明演出方法]
実施の形態に係る照明演出方法について、図10を参照しながら説明する。
[3. Lighting production method]
The lighting effect method according to the embodiment will be described with reference to FIG.

図10は、実施の形態に係る照明演出方法を示すフローチャートである。 FIG. 10 is a flowchart showing a lighting effect method according to the embodiment.

まず、端末装置30が、複数の照明器具10の位置データを取得する(ステップS10)。このステップで取得した照明器具10の位置データは、記憶部36に保存される。 First, the terminal device 30 acquires the position data of the plurality of lighting fixtures 10 (step S10). The position data of the lighting fixture 10 acquired in this step is stored in the storage unit 36.

次に、端末装置30が、動画コンテンツ50のデータを取得する(ステップS11)。このステップで取得した動画コンテンツ50のデータは、記憶部36に保存される。なお、ステップS11は、ステップS10の前に実行されてもよい。 Next, the terminal device 30 acquires the data of the moving image content 50 (step S11). The data of the moving image content 50 acquired in this step is stored in the storage unit 36. Note that step S11 may be executed before step S10.

次に、端末装置30が動画コンテンツ50に含まれるオブジェクト51およびオブジェクト51の属性を抽出する(ステップS12)。このステップで抽出したオブジェクト51およびオブジェクト51の属性は、記憶部36に保存される。 Next, the terminal device 30 extracts the objects 51 and the attributes of the objects 51 included in the moving image content 50 (step S12). The objects 51 and the attributes of the objects 51 extracted in this step are stored in the storage unit 36.

次に、端末装置30が、照明演出を行うための演出情報を生成する(ステップS13)。ここで、演出情報が生成される際に端末装置30が受け付ける操作入力について、図11を参照しながら説明する。 Next, the terminal device 30 generates effect information for performing the lighting effect (step S13). Here, the operation input received by the terminal device 30 when the effect information is generated will be described with reference to FIG. 11.

図11は、図10のステップS13において端末装置30に表示される画面を示す図である。 FIG. 11 is a diagram showing a screen displayed on the terminal device 30 in step S13 of FIG.

図11の(a)に示す編集画面において「オブジェクト検索」の操作キーの入力を受け付けると、図11の(b)に示すオブジェクト選択画面が表示される。このオブジェクト選択画面では、「オブジェクト選択」の操作キーおよび「オブジェクト一覧」の操作キーが表示される。この図では、オブジェクト51として「人」が選択され、数人の中からNo.1の人(図7参照)が選択されている例が示されている。 When the input of the operation key of "object search" is accepted on the edit screen shown in FIG. 11 (a), the object selection screen shown in FIG. 11 (b) is displayed. On this object selection screen, the operation keys of "object selection" and the operation keys of "object list" are displayed. In this figure, "person" is selected as the object 51, and No. 1 is selected from among several people. An example is shown in which one person (see FIG. 7) is selected.

オブジェクト選択画面において「決定」の操作キーの入力を受け付けると、図11の(c)に示す編集画面が表示される。この編集画面において「動き」および「色」の操作キーの入力を受け付け、かつ「演出変更」の操作キーの入力を受け付けると、図11の(d)に示す演出変更画面が表示される。演出変更画面において、色に関する属性のうち「R、G、B」の調整バーが調整されることで、色に関する演出情報が変更される。また、演出変更画面において、「動き」に関する属性について「曲線」が選択され、さらに「動き詳細」の操作キーを受け付けると、図11の(e)に示す詳細変更画面が表示される。詳細変更画面では、数種類の移動ルートを示す操作キーが表示される。これらの移動ルートから所定の移動ルートが選択され、さらに「決定」の操作キーを受け付けることで、演出情報が生成される。 When the input of the operation key of "OK" is accepted on the object selection screen, the edit screen shown in FIG. 11 (c) is displayed. When the input of the operation keys of "movement" and "color" is accepted and the input of the operation key of "effect change" is accepted on this edit screen, the effect change screen shown in FIG. 11D is displayed. On the effect change screen, the effect information related to the color is changed by adjusting the adjustment bar of "R, G, B" among the attributes related to the color. Further, when the "curve" is selected for the attribute related to the "movement" on the effect change screen and the operation key of the "movement details" is received, the detail change screen shown in FIG. 11 (e) is displayed. On the detailed change screen, operation keys indicating several types of movement routes are displayed. A predetermined movement route is selected from these movement routes, and further, by accepting the operation key of "decision", the effect information is generated.

このように端末装置30は、記憶部36に記憶されたオブジェクト51の属性の内容を変更し、変更後のオブジェクト51の属性に基づいて、演出情報を生成する。また、端末装置30は、記憶部36に保存された照明器具10の位置データを参照して、複数の照明器具10を用いて演出可能な範囲の演出情報を生成する。 In this way, the terminal device 30 changes the content of the attribute of the object 51 stored in the storage unit 36, and generates the effect information based on the changed attribute of the object 51. Further, the terminal device 30 refers to the position data of the lighting fixture 10 stored in the storage unit 36, and generates production information in a range that can be produced by using the plurality of lighting fixtures 10.

端末装置30は、ステップS13にて生成した演出情報を照明コントローラ20に出力する(ステップS14)。照明コントローラ20は、照明コントローラ20から出力された演出情報を取得し、演出情報に基づいて複数の照明器具10を点灯制御する(ステップS15)。これらのステップS10~S15により、複数の照明器具10による照明演出が行われる。 The terminal device 30 outputs the effect information generated in step S13 to the lighting controller 20 (step S14). The lighting controller 20 acquires the effect information output from the lighting controller 20 and controls lighting of a plurality of lighting fixtures 10 based on the effect information (step S15). By these steps S10 to S15, the lighting effect by the plurality of lighting fixtures 10 is performed.

[4.実施の形態の変形例1]
実施の形態の変形例1に係る照明演出方法について説明する。変形例1では、オブジェクト51の照明演出を行う際の優先度に基づいて、演出情報を生成する例について説明する。
[4. Modification 1 of the embodiment]
The lighting effect method according to the first modification of the embodiment will be described. In the first modification, an example of generating the effect information based on the priority when the lighting effect of the object 51 is performed will be described.

図12は、変形例1に係る照明演出方法を示すフローチャートである。ステップS10~S12、S14およびS15は、図10に示す実施の形態と同じなので説明を省略する。 FIG. 12 is a flowchart showing a lighting effect method according to the first modification. Since steps S10 to S12, S14 and S15 are the same as those of the embodiment shown in FIG. 10, the description thereof will be omitted.

変形例1では、オブジェクト51の照明演出の優先度に基づいて、演出情報を生成する。具体的には、まず、情報処理部35が、データ取得部33で取得したデータに基づいて、異なるオブジェクト51が同一の時間帯に画面上で重なっているか否かを判断する(ステップS13A)。異なるオブジェクト51が重なっていない場合(S13AにてNo)、情報処理部35は、優先度に基づいて演出情報を生成する必要がないので、図10のステップS13に示すように演出情報を生成する。 In the first modification, the effect information is generated based on the priority of the lighting effect of the object 51. Specifically, first, the information processing unit 35 determines whether or not different objects 51 overlap on the screen in the same time zone based on the data acquired by the data acquisition unit 33 (step S13A). When the different objects 51 do not overlap (No in S13A), the information processing unit 35 does not need to generate the effect information based on the priority, and therefore generates the effect information as shown in step S13 of FIG. ..

一方、異なるオブジェクト51が重なっている場合(S13AにてYes)、情報処理部35は、記憶部36に保存されているオブジェクト51の照明演出の優先度に基づいて、演出情報を生成する(ステップS13B)。この優先度は、照明システム1を利用するユーザによって複数のオブジェクト51ごとに予め記憶部36に保存されている。情報処理部35は、優先度の高いオブジェクト51が、優先度の低いオブジェクト51よりも上書きとなって表示されるように演出情報を生成する。変形例1では、オブジェクト51が重なっている場合であっても、演出情報を簡易に生成することができる。 On the other hand, when different objects 51 overlap (Yes in S13A), the information processing unit 35 generates effect information based on the priority of the lighting effect of the object 51 stored in the storage unit 36 (step). S13B). This priority is stored in advance in the storage unit 36 for each of the plurality of objects 51 by the user who uses the lighting system 1. The information processing unit 35 generates effect information so that the high-priority object 51 is overwritten and displayed over the low-priority object 51. In the first modification, the effect information can be easily generated even when the objects 51 overlap.

[5.実施の形態の変形例2]
実施の形態の変形例2に係る照明演出方法について説明する。変形例2では、動画コンテンツ50の中のオブジェクト51の面積に基づいて優先度を決定し、この優先度に基づいて、演出情報を生成する例について説明する。
[5. Modification 2 of the embodiment]
The lighting effect method according to the second modification of the embodiment will be described. In the second modification, an example in which the priority is determined based on the area of the object 51 in the moving image content 50 and the effect information is generated based on the priority will be described.

図13は、変形例2に係る照明演出方法を示すフローチャートである。ステップS10~S12、S14およびS15は、図10に示す実施の形態と同じなので説明を省略する。 FIG. 13 is a flowchart showing a lighting effect method according to the second modification. Since steps S10 to S12, S14 and S15 are the same as those of the embodiment shown in FIG. 10, the description thereof will be omitted.

変形例2でも、情報処理部35は、オブジェクト51の照明演出の優先度に基づいて、演出情報を生成する。具体的には、まず、情報処理部35が、データ取得部33で取得したデータに基づいて、異なるオブジェクト51が同一の時間帯に画面上で重なっているか否かを判断する(ステップS13C)。異なるオブジェクト51が重なっていない場合(S13CにてNo)、図10のステップS13に示すように演出情報を生成する。 Also in the second modification, the information processing unit 35 generates the effect information based on the priority of the lighting effect of the object 51. Specifically, first, the information processing unit 35 determines whether or not different objects 51 overlap on the screen in the same time zone based on the data acquired by the data acquisition unit 33 (step S13C). When the different objects 51 do not overlap (No in S13C), the effect information is generated as shown in step S13 of FIG.

一方、異なるオブジェクト51が重なっている場合(S13CにてYes)、情報処理部35は、端末装置30の画面に表示される動画コンテンツ50の中のオブジェクト51の面積に基づいて、照明演出の優先度を決定する(ステップS13D)。この優先度は、画面中のオブジェクト51の面積占有率が高いほど、すなわち画面に表される画素数が多いほど、高く設定される。そして情報処理部35は、決定された優先度に基づいて、演出情報を生成する(ステップS13E)。具体的には、情報処理部35は、優先度の高いオブジェクト51が、優先度の低いオブジェクト51よりも上書きとなって表示されるように演出情報を生成する。変形例2でも、オブジェクト51が重なっている場合であっても、演出情報を簡易に生成することができる。 On the other hand, when different objects 51 overlap (Yes in S13C), the information processing unit 35 gives priority to the lighting effect based on the area of the object 51 in the moving image content 50 displayed on the screen of the terminal device 30. The degree is determined (step S13D). This priority is set higher as the area occupancy of the object 51 on the screen is higher, that is, as the number of pixels displayed on the screen is larger. Then, the information processing unit 35 generates the effect information based on the determined priority (step S13E). Specifically, the information processing unit 35 generates effect information so that the high-priority object 51 is overwritten and displayed over the low-priority object 51. Even in the second modification, even when the objects 51 overlap, the effect information can be easily generated.

なお、上記のステップS13C~S13Eは、変形例1のS13Bの後に実行されてもよい。変形例1および変形例2にて設定される優先度が異なる場合は、変形例1の優先度が採用されてもよい。 The above steps S13C to S13E may be executed after S13B of the modification example 1. If the priorities set in the modified example 1 and the modified example 2 are different, the priority of the modified example 1 may be adopted.

[6.効果等]
本実施の形態に係る照明システム1は、複数の照明器具10と、複数の照明器具10による照明演出を行うための演出情報を生成する端末装置30と、演出情報に基づいて、複数の照明器具10を点灯制御して照明演出を行う照明コントローラ20と、を備える。端末装置30は、動画コンテンツ50に含まれるオブジェクト51の属性に基づいて、演出情報を生成する情報処理部35を有する。
[6. Effect, etc.]
The lighting system 1 according to the present embodiment includes a plurality of lighting fixtures 10, a terminal device 30 that generates effect information for performing a lighting effect by the plurality of lighting fixtures 10, and a plurality of lighting fixtures based on the effect information. A lighting controller 20 that controls lighting of 10 to produce lighting effects is provided. The terminal device 30 has an information processing unit 35 that generates effect information based on the attributes of the object 51 included in the moving image content 50.

このように、端末装置30の情報処理部35が、動画コンテンツ50に含まれるオブジェクト51の属性に基づいて演出情報を生成することで、演出情報を簡易に作成することができる。 In this way, the information processing unit 35 of the terminal device 30 can easily create the effect information by generating the effect information based on the attributes of the object 51 included in the moving image content 50.

また、オブジェクト51は、人、動物、移動体および自然物の少なくとも1つであり、オブジェクト51の属性は、オブジェクト51の色、動きおよび表示スケジュールの少なくとも1つであってもよい。 Further, the object 51 may be at least one of a person, an animal, a moving body, and a natural object, and the attribute of the object 51 may be at least one of the color, movement, and display schedule of the object 51.

これによれば、演出情報を生成するために参考とするオブジェクト51およびオブジェクト51の属性を適切に選択し、演出情報を適切に生成することができる。 According to this, the attributes of the object 51 and the object 51 to be referred to for generating the effect information can be appropriately selected, and the effect information can be appropriately generated.

また、端末装置30は、動画コンテンツ50からオブジェクト51の属性を取得するデータ取得部33を有し、情報処理部35は、データ取得部33で取得したオブジェクト51の属性に基づいて、演出情報を生成してもよい。 Further, the terminal device 30 has a data acquisition unit 33 for acquiring the attributes of the object 51 from the video content 50, and the information processing unit 35 outputs the effect information based on the attributes of the object 51 acquired by the data acquisition unit 33. May be generated.

これによれば、動画コンテンツ50に含まれるオブジェクト51の属性を適切に取得し、取得したオブジェクト51の属性に基づいて演出情報を適切に生成することができる。 According to this, the attribute of the object 51 included in the moving image content 50 can be appropriately acquired, and the effect information can be appropriately generated based on the acquired attribute of the object 51.

また、動画コンテンツ50は、複数のオブジェクト51を有し、データ取得部33は、複数のオブジェクト51ごとにオブジェクト51の属性を取得してもよい。 Further, the moving image content 50 has a plurality of objects 51, and the data acquisition unit 33 may acquire the attributes of the objects 51 for each of the plurality of objects 51.

このように複数のオブジェクトごとにオブジェクト51の属性を取得することで、オブジェクト51の属性の選択肢を増やすことができ、演出情報のバリエーションを簡易に増やすことができる。 By acquiring the attributes of the object 51 for each of the plurality of objects in this way, the choices of the attributes of the object 51 can be increased, and the variation of the effect information can be easily increased.

また、端末装置30は、データ取得部33で取得したオブジェクト51の属性が保存される記憶部36を有し、情報処理部35は、記憶部36に保存されたオブジェクト51の属性の内容を変更することで、演出情報を生成してもよい。 Further, the terminal device 30 has a storage unit 36 in which the attributes of the object 51 acquired by the data acquisition unit 33 are stored, and the information processing unit 35 changes the contents of the attributes of the object 51 stored in the storage unit 36. By doing so, the effect information may be generated.

このように、記憶部36に保存されたオブジェクト51の属性の内容を変更することで、演出情報を簡易に作成することができる。 In this way, by changing the content of the attribute of the object 51 stored in the storage unit 36, the effect information can be easily created.

また、記憶部36には、複数の照明器具10の位置データが保存され、情報処理部35は、上記位置データおよびオブジェクト51の属性に基づいて、演出情報を生成してもよい。 Further, the storage unit 36 stores the position data of the plurality of lighting fixtures 10, and the information processing unit 35 may generate the effect information based on the position data and the attributes of the object 51.

このように、照明器具10の位置データに基づいて演出情報を生成することで、複数の照明器具10を用いて演出可能な範囲の演出情報を生成することができる。 In this way, by generating the effect information based on the position data of the lighting fixture 10, it is possible to generate the effect information in the range that can be produced by using the plurality of lighting devices 10.

また、記憶部36には、複数のオブジェクト51ごとに照明演出の優先度が保存され、情報処理部35は、上記優先度およびオブジェクト51の属性に基づいて、演出情報を生成してもよい。 Further, the storage unit 36 stores the priority of the lighting effect for each of the plurality of objects 51, and the information processing unit 35 may generate the effect information based on the priority and the attributes of the object 51.

これによれば、例えば、オブジェクト51が同一の時間帯に画面上において重なっている場合に、演出情報を簡易に生成することができる。 According to this, for example, when the objects 51 overlap on the screen in the same time zone, the effect information can be easily generated.

また、情報処理部35は、端末装置30の画面に表示される動画コンテンツ50の中のオブジェクト51の面積に基づいて、複数のオブジェクト51の照明演出の優先度を決定してもよい。 Further, the information processing unit 35 may determine the priority of the lighting effect of the plurality of objects 51 based on the area of the objects 51 in the moving image content 50 displayed on the screen of the terminal device 30.

これによれば、例えば、オブジェクト51が同一の時間帯に画面上において重なっている場合に、演出情報を簡易に生成することができる。 According to this, for example, when the objects 51 overlap on the screen in the same time zone, the effect information can be easily generated.

本実施の形態に係る照明演出方法は、複数の照明器具10による照明演出を行う照明演出方法であって、動画コンテンツ50に含まれるオブジェクト51の属性に基づいて、照明演出を行うための演出情報を生成し、演出情報に基づいて、複数の照明器具10を点灯制御して照明演出を行う。 The lighting effect method according to the present embodiment is a lighting effect method for performing a lighting effect by a plurality of lighting fixtures 10, and is an effect information for performing a lighting effect based on an attribute of an object 51 included in the moving image content 50. Is generated, and based on the effect information, the lighting of the plurality of lighting fixtures 10 is controlled to perform the lighting effect.

このように、動画コンテンツ50に含まれるオブジェクト51の属性に基づいて演出情報を生成することで、演出情報を簡易に作成することができる。 In this way, by generating the effect information based on the attributes of the object 51 included in the moving image content 50, the effect information can be easily created.

本実施の形態に係るプログラムは、動画コンテンツ50から抽出したオブジェクト51の属性を変更するステップと、変更後のオブジェクト51の属性に基づいて、複数の照明器具10を点灯制御して照明演出を行うための演出情報を生成するステップと、を含む演出情報生成方法をコンピュータに実行させるためのプログラムである。 The program according to the present embodiment performs lighting effect by controlling lighting of a plurality of lighting fixtures 10 based on the step of changing the attribute of the object 51 extracted from the moving image content 50 and the attribute of the changed object 51. It is a program for causing a computer to execute an effect information generation method including a step of generating an effect information for the purpose.

このプログラムによれば、動画コンテンツ50に含まれるオブジェクト51の属性に基づいて演出情報を生成するので、演出情報を簡易に作成することができる。 According to this program, the effect information is generated based on the attributes of the object 51 included in the moving image content 50, so that the effect information can be easily created.

(その他の形態)
以上、照明システム等について、実施の形態に基づいて説明したが、本発明は、上記の実施の形態に限定されるものではない。例えば、上記の実施の形態に対して当業者が思いつく各種変形を施して得られる形態や、本発明の趣旨を逸脱しない範囲で実施の形態における構成要素および機能を任意に組み合わせることで実現される形態も本発明に含まれる。
(Other forms)
Although the lighting system and the like have been described above based on the embodiments, the present invention is not limited to the above embodiments. For example, it is realized by arbitrarily combining the components and functions in the embodiment obtained by subjecting various modifications to the above embodiment to those skilled in the art, and within the range not deviating from the gist of the present invention. Forms are also included in the present invention.

上記実施の形態では、照明システム1が、複数の照明器具10と照明コントローラ20と端末装置30とによって構成されている例を示したが、それに限られない。例えば、照明システム1は、端末装置30と照明コントローラとを結ぶ経路上に、照明コントローラ20を制御する上位サーバが設けられていてもよい。また、上位サーバと照明コントローラとを結ぶ経路上にスイッチングハブが設けられ、スイッチングハブに映像機器または音響機器が接続されていてもよい。 In the above embodiment, an example in which the lighting system 1 is composed of a plurality of lighting fixtures 10, a lighting controller 20, and a terminal device 30 is shown, but the present invention is not limited thereto. For example, the lighting system 1 may be provided with a higher-level server that controls the lighting controller 20 on the path connecting the terminal device 30 and the lighting controller. Further, a switching hub may be provided on the path connecting the host server and the lighting controller, and a video device or an audio device may be connected to the switching hub.

上記実施の形態では、照明演出を行うための演出情報によって複数の照明器具10が点灯制御される例を示したが、この演出情報は、DMX(Digital Multiple X)規格に基づく信号によって、照明コントローラ20から照明器具10に送信されてもよい。その場合、DMX規格に基づく信号は、照明コントローラ20によって生成されるが、それに限られず、端末装置30によって生成されてもよい。 In the above embodiment, an example in which a plurality of lighting fixtures 10 are lit and controlled by the effect information for performing the lighting effect is shown, but this effect information is based on a signal based on the DMX (Digital Multiple X) standard and is a lighting controller. It may be transmitted from 20 to the luminaire 10. In that case, the signal based on the DMX standard is generated by the lighting controller 20, but is not limited to this, and may be generated by the terminal device 30.

また、上記実施の形態のフローチャートで説明された処理の順序は、一例である。複数の処理の順序は変更されてもよいし、複数の処理は並行して実行されてもよい。 Further, the order of processing described in the flowchart of the above embodiment is an example. The order of the plurality of processes may be changed, or the plurality of processes may be executed in parallel.

また、上記実施の形態において、制御部などの構成要素は、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。 Further, in the above embodiment, the components such as the control unit may be realized by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.

また、制御部などの構成要素は、ハードウェアによって実現されてもよい。例えば、制御部などの構成要素は、回路(または集積回路)でもよい。これらの回路は、全体として1つの回路を構成してもよいし、それぞれ別々の回路でもよい。また、これらの回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。 Further, components such as a control unit may be realized by hardware. For example, a component such as a control unit may be a circuit (or an integrated circuit). These circuits may form one circuit as a whole, or may be separate circuits from each other. Further, each of these circuits may be a general-purpose circuit or a dedicated circuit.

また、本発明の全般的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。 In addition, general or specific embodiments of the present invention may be realized in a recording medium such as a system, an apparatus, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM. Further, it may be realized by any combination of a system, an apparatus, a method, an integrated circuit, a computer program and a recording medium.

例えば、本発明は、上記実施の形態の操作端末が行う処理をコンピュータに実行させるためのプログラムとして実現されてもよい。このようなプログラムには、スマートフォンまたはタブレット端末などの携帯端末(操作端末の一例)にインストールされるアプリケーションプログラムが含まれる。また、本発明は、このようなプログラムが記録されたコンピュータ読み取り可能な非一時的な記録媒体として実現されてもよい。 For example, the present invention may be realized as a program for causing a computer to execute a process performed by the operation terminal of the above embodiment. Such programs include application programs installed on mobile terminals (examples of operating terminals) such as smartphones or tablet terminals. Further, the present invention may be realized as a computer-readable non-temporary recording medium in which such a program is recorded.

1 照明システム
10 照明器具
20 照明コントローラ
30 端末装置
33 データ取得部
35 情報処理部
36 記憶部
50、50a、50b 動画コンテンツ
51 オブジェクト
90 建物
1 Lighting system 10 Lighting equipment 20 Lighting controller 30 Terminal device 33 Data acquisition unit 35 Information processing unit 36 Storage unit 50, 50a, 50b Video content 51 Object 90 Building

Claims (10)

複数の照明器具と、
前記複数の照明器具による照明演出を行うための演出情報を生成する端末装置と、
前記演出情報に基づいて、前記複数の照明器具を点灯制御して前記照明演出を行う照明コントローラと、
を備え、
前記端末装置は、動画コンテンツに含まれるオブジェクトの属性に基づいて、前記演出情報を生成する情報処理部を有する
照明システム。
With multiple lighting fixtures,
A terminal device that generates production information for performing lighting production by the plurality of lighting fixtures, and
A lighting controller that controls lighting of the plurality of lighting fixtures to perform the lighting effect based on the effect information.
Equipped with
The terminal device is a lighting system having an information processing unit that generates the effect information based on the attributes of objects included in the moving image content.
前記オブジェクトは、人、動物、移動体および自然物の少なくとも1つであり、
前記オブジェクトの属性は、前記オブジェクトの色、動きおよび表示スケジュールの少なくとも1つである
請求項1に記載の照明システム。
The object is at least one of a person, an animal, a moving object and a natural object.
The lighting system according to claim 1, wherein the attribute of the object is at least one of the color, movement, and display schedule of the object.
前記端末装置は、前記動画コンテンツから前記オブジェクトの属性を取得するデータ取得部を有し、
前記情報処理部は、前記データ取得部で取得した前記オブジェクトの属性に基づいて、前記演出情報を生成する
請求項1または2に記載の照明システム。
The terminal device has a data acquisition unit that acquires the attributes of the object from the moving image content.
The lighting system according to claim 1 or 2, wherein the information processing unit generates the effect information based on the attributes of the object acquired by the data acquisition unit.
前記動画コンテンツは、複数の前記オブジェクトを有し、
前記データ取得部は、複数の前記オブジェクトごとに前記オブジェクトの属性を取得する
請求項3に記載の照明システム。
The moving image content has a plurality of the objects.
The lighting system according to claim 3, wherein the data acquisition unit acquires the attributes of the object for each of a plurality of the objects.
前記端末装置は、前記データ取得部で取得した前記オブジェクトの属性が保存される記憶部を有し、
前記情報処理部は、前記記憶部に保存された前記オブジェクトの属性の内容を変更することで、前記演出情報を生成する
請求項3または4に記載の照明システム。
The terminal device has a storage unit in which the attributes of the object acquired by the data acquisition unit are stored.
The lighting system according to claim 3 or 4, wherein the information processing unit generates the effect information by changing the content of the attribute of the object stored in the storage unit.
前記記憶部には、前記複数の照明器具の位置データが保存され、
前記情報処理部は、前記位置データおよび前記オブジェクトの属性に基づいて、前記演出情報を生成する
請求項5に記載の照明システム。
The storage unit stores position data of the plurality of lighting fixtures, and stores the position data.
The lighting system according to claim 5, wherein the information processing unit generates the effect information based on the position data and the attributes of the object.
前記記憶部には、複数の前記オブジェクトごとに前記照明演出の優先度が保存され、
前記情報処理部は、前記優先度および前記オブジェクトの属性に基づいて、前記演出情報を生成する
請求項5または6に記載の照明システム。
In the storage unit, the priority of the lighting effect is stored for each of the plurality of objects.
The lighting system according to claim 5 or 6, wherein the information processing unit generates the effect information based on the priority and the attribute of the object.
前記情報処理部は、前記端末装置の画面に表示される前記動画コンテンツの中の前記オブジェクトの面積に基づいて、複数の前記オブジェクトの前記照明演出の優先度を決定する
請求項5または6に記載の照明システム。
The information processing unit according to claim 5 or 6, which determines the priority of the lighting effect of a plurality of the objects based on the area of the objects in the moving image content displayed on the screen of the terminal device. Lighting system.
複数の照明器具による照明演出を行う照明演出方法であって、
動画コンテンツに含まれるオブジェクトの属性に基づいて、前記照明演出を行うための演出情報を生成し、
前記演出情報に基づいて、前記複数の照明器具を点灯制御して前記照明演出を行う
照明演出方法。
It is a lighting production method that uses multiple lighting fixtures to produce lighting.
Based on the attributes of the objects included in the video content, the effect information for performing the lighting effect is generated.
A lighting effect method for performing the lighting effect by controlling lighting of the plurality of lighting fixtures based on the effect information.
動画コンテンツから抽出したオブジェクトの属性を変更するステップと、
変更後の前記オブジェクトの属性に基づいて、複数の照明器具を点灯制御して照明演出を行うための演出情報を生成するステップと、
を含む演出情報生成方法をコンピュータに実行させるためのプログラム。
Steps to change the attributes of objects extracted from video content,
Based on the changed attributes of the object, a step of generating effect information for controlling lighting of a plurality of lighting fixtures to perform a lighting effect, and
A program for causing a computer to execute a production information generation method including.
JP2020143501A 2020-08-27 2020-08-27 Illumination system, illumination presentation method, and program Pending JP2022038824A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020143501A JP2022038824A (en) 2020-08-27 2020-08-27 Illumination system, illumination presentation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020143501A JP2022038824A (en) 2020-08-27 2020-08-27 Illumination system, illumination presentation method, and program

Publications (1)

Publication Number Publication Date
JP2022038824A true JP2022038824A (en) 2022-03-10

Family

ID=80499048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020143501A Pending JP2022038824A (en) 2020-08-27 2020-08-27 Illumination system, illumination presentation method, and program

Country Status (1)

Country Link
JP (1) JP2022038824A (en)

Similar Documents

Publication Publication Date Title
US11128970B2 (en) Electronic device and music visualization method thereof
US10510173B2 (en) Image processing method and device
CN107771313B (en) Color extractor
TW201010505A (en) Method and computer implemented apparatus for controlling a lighting infrastructure
JP2013047820A (en) System and method for creating artificial atmosphere
CN110113536A (en) A kind of screen light compensation method, device, storage medium and intelligent terminal
EP2974299A2 (en) Configuring a system comprising a primary image display device and one or more remotely lamps controlled in accordance with the content of the image displayed
US9980346B2 (en) Lighting setting apparatus and lighting system
CN108432344B (en) Controller for controlling light source and method thereof
JP2017195124A (en) Lighting control system
CN102742359A (en) Dynamic ambience lighting system
CN110115112B (en) Lighting control
US11665802B2 (en) Lighting system
CN112913331B (en) Determining light effects based on video and audio information according to video and audio weights
US20200257831A1 (en) Led lighting simulation system
JP2022038824A (en) Illumination system, illumination presentation method, and program
JP2020170966A (en) Imaging apparatus and imaging apparatus control method
CN112042280A (en) Method for controlling a plurality of lighting devices and lighting control device
JP2020030223A (en) Collaborative display system
US10656813B1 (en) Light control for an image platform
WO2023286568A1 (en) Data processing device, lighting control system, and lighting control data generation method
CN110795052B (en) Display control method, display control device, display system and electronic equipment
CN117424970A (en) Light control method and device, mobile terminal and storage medium
JP2024025479A (en) Performance data generation method and program
CN117424969A (en) Light control method and device, mobile terminal and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240123

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240501