WO2017051463A1 - 制御装置及びコンピュータプログラム - Google Patents

制御装置及びコンピュータプログラム Download PDF

Info

Publication number
WO2017051463A1
WO2017051463A1 PCT/JP2015/076974 JP2015076974W WO2017051463A1 WO 2017051463 A1 WO2017051463 A1 WO 2017051463A1 JP 2015076974 W JP2015076974 W JP 2015076974W WO 2017051463 A1 WO2017051463 A1 WO 2017051463A1
Authority
WO
WIPO (PCT)
Prior art keywords
control
information
video
activation
control information
Prior art date
Application number
PCT/JP2015/076974
Other languages
English (en)
French (fr)
Inventor
栗原 正和
Original Assignee
フィールズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フィールズ株式会社 filed Critical フィールズ株式会社
Priority to PCT/JP2015/076974 priority Critical patent/WO2017051463A1/ja
Priority to JP2017541202A priority patent/JPWO2017051463A1/ja
Publication of WO2017051463A1 publication Critical patent/WO2017051463A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units

Definitions

  • the present invention relates to a control device for controlling other devices.
  • Patent Document 1 describes an awakening system that awakens a person sleeping in a bedroom using an image projected by a projector device.
  • a virtual reality space is also constructed using a video output device, but it has not been utilized on a daily basis.
  • This invention is made
  • One aspect of the present application is an acquisition unit that acquires activation information including time information and an activation purpose, and a storage unit that associates activation information and control information including control information including video information related to the acquired activation object. And when the time determined by the time information is reached, based on the read control information, controls the video output device for projecting a predetermined video onto the projection object, and And a control unit that projects an image corresponding to the above.
  • FIG. 1 is an explanatory diagram showing a configuration example of a space control system 10 according to an embodiment of the present invention.
  • the space control system 10 includes a control device 1, a control information database 2, a video output device 3, a sound output device 4, an air conditioner 5, and a lighting fixture 6.
  • Each device included in the space control system 10 is connected to be communicable with each other via a network N.
  • the control device 1 is a general-purpose computer, a workstation, a desktop PC (personal computer), a notebook PC, or the like.
  • the control information database 2 stores various data (a control information master table 21, a control content master table 22, a control schedule table 23, and the like described later).
  • the video output device 3 outputs video and includes, for example, a liquid crystal display device, a projector, and the like.
  • the sound output device 4 outputs sound and includes a music player, an amplifier, a speaker, and the like.
  • the air conditioner 5 adjusts air such as temperature and humidity, and includes an air conditioner, a humidifier, a dehumidifier, an odor generator, and the like.
  • the lighting fixture 6 includes a light bulb, a fluorescent lamp, an LED (Light Emitting Diode), and the like.
  • the space control system 10 may include a unit in which the video output device 3 and the audio output device 4 are integrated, such as a television receiver.
  • FIG. 2 is a block diagram showing an example of a hardware configuration of the control device 1 according to an embodiment of the present invention.
  • the control device 1 includes a CPU (Central Processing Unit) 11, a RAM (Random Access Memory) 12, a ROM (Read Only Memory) 13, a mass storage device 14, an input unit 15, an output unit 16, a communication unit 17, a clock unit 18.
  • the reading unit 19 is included.
  • Each component is connected by a bus B.
  • the CPU 11 controls each part of the hardware according to the control program 1P (computer program) stored in the ROM 13.
  • the RAM 12 is, for example, SRAM (Static RAM), DRAM (Dynamic RAM), or flash memory.
  • the RAM 12 temporarily stores data generated when the CPU 11 executes the control program 1P.
  • the mass storage device 14 is, for example, a hard disk, an SSD (Solid State Drive), or the like.
  • the mass storage device 14 stores various data such as video data and audio data.
  • the control program 1P and the data generated when the control program 1P is executed may be stored in the mass storage device 14.
  • the input unit 15 includes a keyboard, a mouse and the like for inputting data to the control device 1.
  • the output unit 16 includes a display device that outputs an image, a speaker that outputs sound, and the like.
  • the timer unit 18 measures time and measures elapsed time.
  • the communication unit 17 communicates with other devices and other computers via the network N.
  • the reading unit 19 reads a portable storage medium 1a including a CD (Compact Disc) -ROM and a DVD (Digital Versatile Disc) -ROM.
  • the CPU 11 may read the control program 1P from the portable storage medium 1a via the reading unit 19 and store it in the mass storage device 14. Further, the CPU 11 may download the control program 1P from another computer via the network N and store it in the mass storage device 14. Furthermore, the CPU 11 may read the control program 1P from the semiconductor memory 1b.
  • FIG. 3 is an explanatory diagram showing an example of a record layout of the control information master table 21 according to an embodiment of the present invention.
  • the control information master table 21 includes a purpose column, a content column, and a control name column.
  • the object column stores a character string representing the object of performing space control.
  • the content column stores a description of the space created by the control.
  • the control name column stores a control name that specifies control information of each device.
  • a plurality of control names are stored in the control name column, and the number is the number of devices to be controlled.
  • the alarm 1 for the purpose of alarming creates a space like “every summer beach” in a predetermined room, and includes image control 1, sound control 1, air conditioning control 1, lighting
  • Each of the controls 1 controls four devices.
  • FIG. 4 is an explanatory diagram showing an example of a record layout of the control content master table 22 according to an embodiment of the present invention.
  • the control content master table 22 includes a control name column and a control content column.
  • the control name column stores a control name for specifying the control content.
  • the control content column stores the control content for each device.
  • a character string such as “video” or “sound” in the control name, it is possible to determine the device to be controlled.
  • FIG. 5 is an explanatory diagram showing an example of a record layout of the control schedule table 23 according to an embodiment of the present invention.
  • the control schedule table 23 includes a start time column, a target column, and a control name column.
  • the start time column stores the time at which control of each device is started. For example, in the start time column, when starting only once, the start date and time are set. When repeating every day, set only the time. Set the day of the week and time when running on a fixed day of the week.
  • the object column stores a character string representing the object of performing space control.
  • the control name column stores a control name that specifies control information.
  • FIG. 6 is a flowchart showing a procedure of control processing of various apparatuses according to an embodiment of the present invention.
  • the CPU 11 of the control device 1 acquires the current time from the timer unit 18 (step S1).
  • the CPU 11 searches the control schedule table 23 for a record whose current time has reached the start time (step S2).
  • the CPU 11 determines whether or not the search has been hit (step S3). If the CPU 11 determines that the search has been hit (YES in step S3), the control name is acquired from the hit record (step S4).
  • the CPU 11 searches the control content master table 22 and acquires the control content corresponding to the acquired control name (step S5).
  • the CPU 11 transmits a control command to the device corresponding to the control content (step S6).
  • the CPU 11 determines whether there is an unprocessed device (step S7). If the CPU 11 determines that there is an unprocessed device (YES in step S7), the process returns to step S4. If the CPU 11 determines that the search has not been hit (NO in step S3), or if it is determined that there is no unprocessed device (NO in step S7), the process ends.
  • the control process shown in FIG. 6 is repeatedly executed by, for example, a timer interrupt realized by the timer unit 18.
  • the control schedule table 23 stores a control schedule for the purpose of waking up at 7:00 every day.
  • CPU 11 acquires 7:00 as the current time, it acquires video control 1, sound control 1, air conditioning control 1, and illumination control 1 as control names indicating control corresponding to alarm 1 from control schedule table 23. .
  • the CPU 11 acquires the control content corresponding to each control name from the control content master table 22.
  • the CPU 11 transmits a control command for setting the set temperature to 30 degrees, the set humidity to 70%, and the set air volume to be weak to the air conditioner 5.
  • the CPU 11 transmits a control command for setting the set color temperature to 3200K and the set dimming level to 90 to the lighting fixture 6.
  • the luminaire 6 performs an operation according to the received setting. As described above, by executing the sound control 1, the air adjustment control 1, and the illumination control 1 in addition to the video control 1, it is possible to make the user feel a sense that the video control 1 wanted to feel.
  • the control command to the video output device 3 and the audio output device 4 uses, for example, a DLNA (Digital Living Network Alliance) signal.
  • the control command for the lighting fixture 6 uses, for example, a DALI (Digital Addressable Lighting Interface) signal.
  • the video output device 3 displays a summer summer landscape image.
  • the sound output device 4 outputs the environmental sound of the beach in summer.
  • the air conditioner 5 brings the room to a temperature of 30 degrees and a humidity of 70%, as in the summer beach.
  • the lighting device 6 emits light having a color temperature of 3200 K, as if the sun's rays were shining.
  • the control device 1 is a device that gives a visual change, and is a space according to the purpose of the video output device 3 that projects a predetermined video on a projection object (for example, a wall, a ceiling, a floor, a screen, etc.). Control to create.
  • control device 1 gives an acoustic output device 4 that gives an auditory change and a tactile change (a temperature, humidity change, etc. felt by a person) so as to further color the space according to the purpose in combination with the predetermined video. It controls the air conditioner 5 and the luminaire 6 that gives the visual change.
  • the control device 1 according to Embodiment 1 has the following effects.
  • What is important in the present embodiment is to visually produce a space along a predetermined purpose in a desired room at a desired timing, and the control device 1 at least visually in the five senses. The appealing effect is realized at the desired timing.
  • the control apparatus 1 operates the apparatus which produces the event which changes the visual sense of at least 5 senses according to the set content (purpose, start time).
  • Embodiment 2 In the second embodiment, the control content is changed according to the time zone to be controlled. Since the hardware configuration and the contents of the control processing of the second embodiment are the same as those of the first embodiment except for some parts, the following description will mainly focus on differences from the first embodiment.
  • FIG. 7 is an explanatory diagram showing an example of a record layout of the control content master table 22 according to an embodiment of the present invention.
  • the control content master table 22 includes a control name column, a time zone column, and a control content column.
  • the contents stored in the control name column and the control content column are the same as those in the first embodiment.
  • the time zone column stores the start time and end time of the time zone.
  • the procedure of control processing executed by the control device 1 in the second embodiment is the same as that in FIG. 6 except for the following points.
  • the control content is acquired from the control content master table 22 in step S5
  • the control content with the same control name and the current time included in the time zone is acquired.
  • file sound3_2.
  • m4a is selected.
  • the meeting room is set in an environment like a villa in a summer resort in the morning, and a sophisticated urban cafe in the afternoon Environment at night, like a room in a high-rise building with a night view of the city.
  • zone a time slot
  • Embodiment 2 has the following effects. Since the contents of control are switched depending on the time zone when control is started, the environment to be created can be controlled more precisely.
  • Embodiment 3 the control content is changed according to the room to be controlled. Since the hardware configuration and the contents of the control process of the third embodiment are the same as those of the first embodiment except for some parts, the following description will mainly focus on differences from the first embodiment.
  • the control device 1 controls a plurality of rooms. It is assumed that the configuration of devices that can be controlled for each room is not the same, and that there are different rooms. In the following description, the case where the conference rooms 1 to 4 are controlled is taken as an example.
  • FIG. 8 is an explanatory diagram showing an example of a record layout of the control content master table 22 according to an embodiment of the present invention.
  • the control content master table 22 includes a control name column, a position information column, and a control content column.
  • the contents stored in the control name column and the control content column are the same as those in the first embodiment.
  • the position information string stores information for specifying the position. In the example shown in FIG. 8, the conference room name is stored.
  • each record stored in the control schedule table 23 includes a position information column in addition to the above-described columns.
  • the meeting room name is stored in the position information column.
  • control device 1 acquires a control name and a conference room name as position information from the record of the control schedule that has been searched for in step S4.
  • the control device 1 searches the control content master table 22 using the control name and the position information, and acquires the control content.
  • control device 1 transmits a control command to the device corresponding to the acquired position information (here, the conference room).
  • the control content of the conference room 4 is “-”. This indicates that the video output device 3 is not installed in the conference room 4 and video control is not performed.
  • the conference rooms 2 to 4 are simply sound4.
  • the content of control is to reproduce m4a.
  • the surround function is turned on and the sound 4.
  • the content of control is to play m4a.
  • Embodiment 3 has the following effects. Since it is possible to define the control contents for each room to be controlled, it is possible to create an environment utilizing the characteristics of each room.
  • Embodiment 4 In the fourth embodiment, a projection mapping technique is used as a modification of the third embodiment. Since the hardware configuration and the contents of the control process of the fourth embodiment are the same as those of the third embodiment except for some parts, the following description will mainly focus on differences from the fourth embodiment.
  • Embodiment 4 it is assumed that the size and shape of the conference room to be controlled, the performance of the projector constituting the video output device 3, and the installation position in the conference room are known. A video for projection mapping is prepared based on these pieces of information.
  • the control device 1 acquires video information from the control content master table 22 together with information on the conference room to be controlled. The control device 1 causes the video output device 3 in the conference room to be controlled to reproduce the acquired video information. Further, the control device 1 causes the sound output device 4 in the conference room to be controlled to reproduce the audio information corresponding to the video.
  • Embodiment 4 has the following effects. By using the projection mapping technique for video output, it is possible to make the user (viewer) feel the real feeling about the created environment.
  • Embodiment 5 relates to a configuration for switching an environment to be created according to a change in a user's situation.
  • FIG. 9 is an explanatory diagram showing a configuration example of the space control system 10 according to an embodiment of the present invention.
  • a human sensor 71 and an imaging device 72 are included.
  • the hardware configuration of the control device 1 and the content of the control process in the fifth embodiment are the same as those in the first embodiment except for a part thereof. Therefore, in the following description, differences from the first embodiment will be mainly described. To do.
  • the human sensor 71 is, for example, an infrared sensor (passive or active) or an ultrasonic sensor.
  • the imaging device 72 is a video camera, a laser range finder, or the like.
  • the human sensor 71 and the imaging device 72 are installed in a room to be controlled and detect the state of the user.
  • the human sensor 71 and the imaging device 72 input the detection result to the control device 1 via the input unit 15.
  • the human sensor 71 and the imaging device 72 may input the detection result to the control device 1 via the network N and the communication unit 17.
  • the human sensor 71 may be a piezoelectric sensor attached to a bed, chair, sofa, or the like.
  • FIG. 10 is an explanatory diagram showing an example of a record layout of the control schedule table 23 according to an embodiment of the present invention.
  • the control schedule table 23 includes a start time column, a target column, a control name column, and a subsequent ID column. Compared to the first embodiment, a subsequent ID string is added. Since the start time column, the target column, and the control name column are the same as those in the first embodiment, description thereof is omitted.
  • the subsequent ID column stores a record ID of a subsequent table (described later) in which information related to control switching is written. When there is no value in the subsequent ID, it indicates that switching is not performed.
  • FIG. 11 is an explanatory diagram showing an example of the record layout of the subsequent table 24 according to an embodiment of the present invention.
  • the subsequent table 24 includes an ID column, a trigger column, a control name column, and a subsequent column.
  • the ID column stores an ID (primary key) that identifies the record.
  • the trigger sequence stores a condition for switching control.
  • the control name column stores a control name that specifies control information after switching.
  • the subsequent column further stores the ID of the record related to the control switching.
  • the control according to the record of the subsequent table 24 in which the subsequent ID is specified by 1 is performed.
  • the record with ID 1 indicates that the control is switched to the video control name 2 or the like when the user wakes up and there is no subsequent switching.
  • the user waking up is detected by the human sensor 71 installed on the bed or the human sensor 71 installed on other than the bed.
  • detection is performed by imaging the room with the imaging device 72.
  • FIG. 12 is a flowchart showing a control processing procedure according to an embodiment of the present invention. Steps S1 to S7 shown in FIG. 12 are the same as steps S1 to S7 in FIG.
  • step S7 If the CPU 11 of the control device 1 determines that there is an unprocessed device (YES in step S7), the process returns to step S4. If the CPU 11 determines that there is no unprocessed device (NO in step S7), it determines whether there is a switch (step S8). That is, it is determined whether or not an ID is stored in the subsequent column of the record hit in the search in step S3. If the CPU 11 determines that there is switching, that is, that an ID is stored in the subsequent column (YES in step S8), the subsequent ID is stored in a temporary storage area such as the RAM 12 (step S9). CPU11 starts a switching timer (step S10), and complete
  • the switching timer is, for example, an interval timer realized by the timer 18 and executes the control switching process every time the condition is satisfied. If the CPU 11 determines that there is no switching, that is, no ID is stored in the subsequent column (NO in step S8), the process ends. Similar to the first embodiment, the control process shown in FIG. 12 is repeatedly executed by, for example, a timer interrupt realized by the timer 18.
  • FIG. 13 is a flowchart showing a procedure of control switching processing according to an embodiment of the present invention.
  • the CPU 11 acquires a record from the subsequent table 24 based on the subsequent ID stored in the temporary storage area such as the RAM 12 (step S11).
  • CPU11 determines whether the conditions memorize
  • step S14 acquires the control name memorize
  • the CPU 11 searches the control content master table 22 and acquires the control content corresponding to the acquired control name (step S15).
  • the CPU 11 transmits a control command to the device corresponding to the control content (step S16).
  • the CPU 11 determines whether there is an unprocessed device (step S17). If the CPU 11 determines that there is an unprocessed device (YES in step S17), the process returns to step S14.
  • step S18 determines whether there is a switch. That is, it is determined whether or not an ID is stored in the subsequent column of the record acquired in step S11. If the CPU 11 determines that there is switching, that is, the ID is stored in the subsequent column (YES in step S18), the subsequent ID is stored in a temporary storage area such as the RAM 12 (step S19). CPU11 starts a switching timer (step S20), and complete
  • Embodiment 5 has the following effects. By providing the function of switching the control content, it is possible to create an environment according to the behavior in a house where the user performs a series of behaviors such as getting up, eating, and conditioning.
  • Embodiment 6 the control is switched according to the user's operation. Since the hardware configuration and the contents of the control processing in the sixth embodiment are the same as those in the fifth embodiment except for some parts, the following description will mainly focus on differences from the fifth embodiment.
  • control switching when control switching is defined as in the fifth embodiment, switching is performed by explicit action. In the following description, it is assumed that the switching timer described above is started and the control switching process shown in FIG. 13 is repeatedly executed.
  • the control device 1 When the user wants to wake up and switch control, the user performs a specific gesture on the imaging device 72. For example, cross your arms in front of your chest.
  • the control device 1 recognizes the image acquired from the imaging device 72 by pattern matching, and determines that the condition is satisfied when it is detected that the user performs an operation of crossing both arms in front of the chest. (YES in step S12), the control is switched. It is assumed that data for performing pattern matching is stored in advance in the mass storage device 14 or the like.
  • control by the control device 1 may be stopped.
  • Embodiment 6 has the following effects. Since the user can instruct switching and stopping of the control by a gesture, the operability can be improved.
  • the stop of the control may be performed by the user using the input unit 15 of the control device 1. Further, a stop time sequence may be provided in the control schedule table 23, and the control may be stopped when the time stored in the stop time sequence is reached.
  • control device 1 may be configured by a computer that can be easily moved, such as a tablet computer or a smartphone. Further, the control device 1 may be incorporated in a device such as a robot, a projector, or an audio device. Furthermore, a device that causes an event that changes at least one of the five senses, such as the video output device 3 and the audio output device 4, may be integrated with the control device 1.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Selective Calling Equipment (AREA)

Abstract

部屋の使用目的や利用者の嗜好に合わせた環境を室内に作り出すことが可能な制御装置等を提供すること。 制御装置は、時間情報及び起動目的を含む起動情報を取得する取得部と、取得した起動目的に対応する映像に関する映像情報を含む制御情報を、起動目的及び制御情報を対応付けた記憶部から読み出す読み出し部と、前記時間情報で定める時間に達した場合には、読み出した制御情報に基づき、被投影物に対して所定の映像を投影するための映像出力装置を制御して前記起動目的に対応した映像を投影させる制御部とを備える。

Description

制御装置及びコンピュータプログラム
 本発明は他機器の制御を行う制御装置等に関する。
 近年、映像出力装置の普及に伴い、映像出力装置を映像鑑賞以外に用いることが試みられている。特許文献1には、寝室内で寝ている人を、プロジェクタ装置によって投影された映像を用いて覚醒させる覚醒システムが記載されている。
特開2007-248052号公報
 一方、映像出力装置を用いて仮想現実空間を構築することも行われているが、日常的に活用するには至っていない。本発明は斯かる事情に鑑みてなされたものであって、部屋の使用目的や利用者の嗜好に合わせた環境を室内に作り出すことが可能な制御装置等を提供することにある。
 本願の一観点は、時間情報及び起動目的を含む起動情報を取得する取得部と、取得した起動目的に対応する映像に関する映像情報を含む制御情報を、起動目的及び制御情報を対応付けた記憶部から読み出す読み出し部と、前記時間情報で定める時間に達した場合には、読み出した制御情報に基づき、被投影物に対して所定の映像を投影するための映像出力装置を制御して前記起動目的に対応した映像を投影させる制御部とを備えることを特徴とする。
 本発明によれば、部屋の使用目的や利用者の嗜好に合わせた環境を室内に作り出すことが可能となる。
本発明の一実施形態に係る空間制御システムの構成例を示す説明図である。 本発明の一実施形態に係る制御装置のハードウェア構成の一例を示すブロック図である。 本発明の一実施形態に係る制御情報マスターテーブルのレコードレイアウトの一例を示す説明図である。 本発明の一実施形態に係る制御内容マスターテーブルのレコードレイアウトの一例を示す説明図である。 本発明の一実施形態に係る制御スケジュールテーブルのレコードレイアウトの一例を示す説明図である。 本発明の一実施形態に係る各種装置の制御処理の手順を示すフローチャートである。 本発明の一実施形態に係る制御内容マスターテーブルのレコードレイアウトの一例を示す説明図である。 本発明の一実施形態に係る制御内容マスターテーブルのレコードレイアウトの一例を示す説明図である。 本発明の一実施形態に係る空間制御システムの構成例を示す説明図である。 本発明の一実施形態に係る制御スケジュールテーブルのレコードレイアウトの一例を示す説明図である。 本発明の一実施形態に係る後続テーブルのレコードレイアウトの一例を示す説明図である。 本発明の一実施形態に係る制御処理の手順を示すフローチャートである。 本発明の一実施形態に係る制御切替処理の手順を示すフローチャートである。
 実施の形態1
 以下実施の形態を、図面を参照して説明する。図1は本発明の一実施形態に係る空間制御システム10の構成例を示す説明図である。空間制御システム10は、制御装置1、制御情報データベース2、映像出力装置3、音響出力装置4、空気調節装置5、照明器具6を含む。空間制御システム10に含まれる各機器は、ネットワークNにより互い通信可能に接続されている。制御装置1は汎用コンピュータ、ワークステーション、デスクトップ型PC(パーソナルコンピュータ)、ノートブック型PC等である。制御情報データベース2は各種のデータ(後述する制御情報マスターテーブル21、制御内容マスターテーブル22、制御スケジュールテーブル23等)を記憶する。映像出力装置3は映像を出力するものであり、例えば、液晶表示装置、プロジェクタなどを含む。音響出力装置4は音響を出力するものであり、音楽プレイヤ、アンプ、スピーカなどを含む。空気調節装置5は温度や湿度など空気の調節を行うものであり、エアコンディショナー、加湿器、除湿機、匂い発生器などを含む。照明器具6は電球、蛍光灯、LED(Light Emitting Diode)などを含む。なお、空間制御システム10には、テレビジョン受信機のように映像出力装置3と音響出力装置4とが一体となったものを含んでも良い。
 図2は本発明の一実施形態に係る制御装置1のハードウェア構成の一例を示すブロック図である。制御装置1は、CPU(Central Processing Unit)11、RAM(Random Access Memory)12、ROM(Read Only Memory)13、大容量記憶装置14、入力部15、出力部16、通信部17、計時部18、読み取り部19を含む。各構成はバスBで接続されている。
 CPU11はROM13に記憶された制御プログラム1P(コンピュータプログラム)に従いハードウェア各部を制御する。RAM12は例えばSRAM(Static RAM)、DRAM(Dynamic RAM)、フラッシュメモリである。RAM12はCPU11による制御プログラム1Pの実行時に発生するデータを一時的に記憶する。大容量記憶装置14は、例えばハードディスク、SSD(Solid State Drive)などである。大容量記憶装置14には、映像データや音声データ等、各種データが記憶されている。また、制御プログラム1Pや制御プログラム1Pの実行時に発生するデータを大容量記憶装置14に記憶するようにしておいても良い。入力部15は制御装置1にデータを入力するためのキーボート、マウスなどを含む。出力部16は画像出力を行う表示装置、音声出力を行うスピーカなどを含む。計時部18は時刻の計時や経過時間計測を行う。通信部17はネットワークNを介して、他の装置や他のコンピュータと通信を行う。読み取り部19はCD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROMを含む可搬型記憶媒体1aを読み取る。CPU11が読み取り部19を介して、制御プログラム1Pを可搬型記憶媒体1aより読み取り、大容量記憶装置14に記憶しても良い。また、ネットワークNを介して他のコンピュータからCPU11が制御プログラム1Pをダウンロードし、大容量記憶装置14に記憶しても良い。さらにまた、半導体メモリ1bから、CPU11が制御プログラム1Pを読み込んでも良い。
 次に、制御情報データベース2に記憶されている各種データについて説明する。図3は本発明の一実施形態に係る制御情報マスターテーブル21のレコードレイアウトの一例を示す説明図である。制御情報マスターテーブル21は、目的列、内容列、制御名列を含む。目的列は空間制御を行う目的を表す文字列を記憶する。内容列は制御により作り出される空間についての説明を記憶する。制御名列は各機器の制御情報を特定する制御名を記憶する。制御名列には複数の制御名が記憶され、その数は制御する機器の数である。図3に示す例では、目覚ましを目的とする目覚まし1は、所定の部屋内において「常夏の海岸」のような空間を作り出すものであり、映像制御1、音響制御1、空気調節制御1、照明制御1のそれぞれにより、4つの装置が制御される。
 図4は本発明の一実施形態に係る制御内容マスターテーブル22のレコードレイアウトの一例を示す説明図である。制御内容マスターテーブル22は、制御名列、制御内容列を含む。制御名列は制御内容を特定する制御名を記憶する。制御内容列は各装置に対する制御内容を記憶する。なお、制御名に「映像」、「音響」などの文字列を含めることにより、制御対象となる機器を判別可能としてある。
 図5は本発明の一実施形態に係る制御スケジュールテーブル23のレコードレイアウトの一例を示す説明図である。制御スケジュールテーブル23は、開始時刻列、目的列、制御名列を含む。開始時刻列は各装置の制御を開始する時刻を記憶する。例えば、開始時刻列には、一回のみ実行する場合は開始する日付と時刻を設定する。毎日繰り返す場合は時刻のみを設定する。毎週決まった曜日に実行する場合は曜日と時刻を設定する。目的列は空間制御を行う目的を表す文字列を記憶する。制御名列は制御情報を特定する制御名を記憶する。
 次に、制御装置1の動作について説明する。図6は本発明の一実施形態に係る各種装置の制御処理の手順を示すフローチャートである。制御装置1のCPU11は計時部18から現在時刻を取得する(ステップS1)。CPU11は制御スケジュールテーブル23において、現在時刻が開始時刻に達しているレコードを検索する(ステップS2)。CPU11は検索にヒットしたか否かを判定する(ステップS3)。CPU11は検索にヒットしたと判定した場合(ステップS3でYES)、ヒットしたレコードから制御名を取得する(ステップS4)。CPU11は制御内容マスターテーブル22を検索し、取得した制御名に対応した制御内容を取得する(ステップS5)。CPU11は制御内容に対応する装置に、制御コマンドを送信する(ステップS6)。CPU11は未処理の機器があるか否かを判定する(ステップS7)。CPU11は未処理機器があると判定した場合(ステップS7でYES)、処理をステップS4に戻す。CPU11は検索にヒットしなかった判定した場合(ステップS3でNO)、又は未処理機器がないと判定した場合(ステップS7でNO)、処理を終了する。図6に示す制御処理は、例えば、計時部18により実現されるタイマ割り込みにより、繰り返し実行される。
 制御処理の内容を図4及び図5に示した例を用いて説明する。図5に示すように、制御スケジュールテーブル23には、毎日7:00に目覚ましを目的とする制御スケジュールが記憶されている。CPU11は現在時刻として7:00を取得した場合、制御スケジュールテーブル23から、目覚まし1に対応した制御を示す制御名として、映像制御1、音響制御1、空気調節制御1、照明制御1を取得する。さらに、CPU11は制御内容マスターテーブル22から、各制御名に対応した制御内容を取得する。
 CPU11は、映像制御1に対応する制御内容として、file=Waikiki.mpgを取得する。CPU11は、大容量記憶装置14に記憶されているファイルWaikiki.mpgを読み出し、映像出力装置3に送信する。映像出力装置3は受信したファイルWaikiki.mpgを再生する。または、CPU11は、ファイルWaikiki.mpgの再生を指示する制御コマンドを、映像出力装置3に送信する。映像出力装置3はファイルWaikiki.mpgを大容量記憶装置14から読み出し、再生する。これにより、ユーザが存在する空間(部屋)の景色をハワイの景色とすることができる。よって、ある時間になったら。ユーザが現在位置している実空間とは別の空間に居るかのように感じさせることができる。
 CPU11は、音響制御1に対応する内容として、file=sound1.m4aを取得する。CPU11は、大容量記憶装置14に記憶されているファイルsound1.m4aを読み出し、音響出力装置4に送信する。音響出力装置4は受信したファイルsound1.m4aを再生する。または、CPU11は、ファイルsound1.m4aの再生を指示する制御コマンドを、音響出力装置4に送信する。音響出力装置4はファイルsound1.m4aを大容量記憶装置14から読み出し、再生する。また、CPU11は、空気調節制御1に対応する制御内容として、室温=30度、湿度=70%、風量=弱を取得する。CPU11は、設定温度を30度、設定湿度を70%、設定風量を弱とする制御コマンドを空気調節装置5に送信する。空気調節装置5は、受信した設定に従った動作を行う。さらに、CPU11は、照明制御1に対応する内容として、色温度=3200K、調光レベル=90を取得する。CPU11は、設定色温度を3200K、設定調光レベルを90とする制御コマンドを照明器具6に送信する。照明器具6は受信した設定に従った動作を行う。
 このように、映像制御1に加えて、音響制御1、空気調整制御1、および照明制御1を実行することにより、映像制御1にてユーザに感じさせたかった感覚をより感じさせることができる。
 なお、映像出力装置3、音響出力装置4への制御コマンドは、例えば、DLNA(Digital Living Network Alliance)信号を用いる。照明器具6に対する制御コマンドは、例えば、DALI(Digital Addressable Lighting Interface)信号を用いる。
 上述の例では、映像出力装置3により常夏の海岸の風景映像が映しだされる。音響出力装置4により常夏の海岸の環境音が出力される。空気調節装置5により、常夏の海岸と同じように、室内が温度30度、湿度70%となる。照明器具6により、朝日の光が射しているような、色温度3200Kの光が室内に放たられる。以上により、常夏の海岸で迎える朝のような空間が、室内に作り出される。すなわち、制御装置1は、視覚的変化を与える装置であって、被投影物(例えば、部屋の壁、天井、床やスクリーン等)に所定の映像を投影する映像出力装置3を目的に応じた空間を創り出すように制御する。さらに、制御装置1は、上記所定の映像と相まって上記目的に応じた空間をさらに彩るように、聴覚的変化を与える音響出力装置4、触覚的変化(人が感じる温度、湿度変化等)を与える空気調節装置5、および視覚的変化を与える照明器具6を制御する。
 実施の形態1の制御装置1は以下の効果を奏する。映像出力装置3、音響出力装置4、空気調節装置5、照明器具6を制御することにより、所望の時刻において目的に適した環境を室内に作り出すことが可能となる。従って、所望の時刻においては、部屋内において目的に沿った環境が実現されているので、例えば、まるでハワイにいるように感じることができる状況にて起床することができる。
 本実施形態で重要なことは、所望のタイミングになった時に、所望の部屋において所定の目的に沿った空間を視覚的に演出することにあり、制御装置1が、五感の中で少なくとも視覚に訴える演出を上記所望のタイミングにて実現するのである。そして、上記演出をより良いものとするために、他(視覚以外)の五感の少なくとも1つに訴える演出も加えることが好ましい。上記では、五感のうち視覚、聴覚、触覚に訴える演出の例を説明したが、例えば、嗅覚に訴える演出であれば、アロマディフューザを用いれば良い。また、味覚に訴える演出であれば、コーヒーメーカのように自動で所定の飲食物を作ることが可能な装置を用いれば良い。例えば、コーヒーメーカであれば、装置の作動前は単なる水だったものが、装置の作動によりコーヒーに変換される。これはまさに、人間にとっては味覚が変化したものに変換されることになり、コーヒーメーカは、味覚的変化を与えたことになる。このように、本実施形態では、制御装置1は、設定された内容(目的、開始時間)に応じて、五感の少なくとも視覚に変化を与える事象を生じさせる装置を作動させる。
 実施の形態2
 実施の形態2は制御する時間帯によって、制御内容を変更する形態である。実施の形態2のハードウェア構成、制御処理の内容は、一部を除いて実施の形態1と同様であるので、以下の説明においては、主として実施の形態1と異なる点を説明する。
 図7は本発明の一実施形態に係る制御内容マスターテーブル22のレコードレイアウトの一例を示す説明図である。制御内容マスターテーブル22は、制御名列、時間帯列、制御内容列を含む。制御名列、制御内容列に記憶する内容は、実施の形態1と同様である。時間帯列は、時間帯の開始時刻と終了時刻を記憶する。実施の形態2において制御装置1で実行される制御処理の手順は、以下の点を除き図6と同様である。実施の形態2では、ステップS5で制御内容を制御内容マスターテーブル22から取得する際に、制御名が一致し、現在時刻が時間帯に含まれる制御内容を取得する。例えば、図7の例では、CPU11は、14時に音響制御3に対応する制御内容を取得する場合、file=sound3_2.m4aが選択される。
 実施の形態2の具体的な利用例としては、新商品開発のブレインストーミング(ブレスト)を行う場合に、会議室を午前は避暑地の別荘のような環境とし、午後は洗練された都市のカフェのような環境、夜間は都会の夜景を望む高層ビルの一室のような環境とする。このように、時間帯によって環境を変化させることにより、参加者の気分転換に寄与することが可能となる。また、参加者の脳を刺激し、新たな発想を促すことも期待される。
 実施の形態2は以下の効果を奏する。制御を開始する時間帯によって、制御内容を切り替えるので、作り出す環境の制御をより細やかに行うことが可能となる。
 実施の形態3
 実施の形態3は制御対象となる部屋により、制御内容を変更する形態である。実施の形態3のハードウェア構成、制御処理の内容は、一部を除いて実施の形態1と同様であるので、以下の説明においては、主として実施の形態1と異なる点を説明する。
 実施の形態3では、制御装置1は複数の部屋の制御を行う。部屋ごとに制御可能な装置の構成は同じではなく、異なっている部屋もあるものとする。以下の説明おいては、会議室1から4の制御を行う場合を例とする。図8は本発明の一実施形態に係る制御内容マスターテーブル22のレコードレイアウトの一例を示す説明図である。制御内容マスターテーブル22は、制御名列、位置情報列、制御内容列を含む。制御名列、制御内容列に記憶する内容は、実施の形態1と同様である。位置情報列は位置を特定する情報を記憶する。図8に示す例では、会議室名を記憶している。
 実施の形態3において、制御スケジュールテーブル23に記憶される各レコードは上述した列に加えて、位置情報列も含まれているものとする。位置情報列には、制御内容マスターテーブル22と同様に会議室名が記憶される。
 実施の形態3において制御装置1で実行される制御処理の手順は、以下の点を除き図6と同様である。実施の形態3において、制御装置1はステップS4で検索ヒットした制御スケジュールのレコードから制御名と、位置情報である会議室名とを取得する。制御装置1はステップS5で制御名と位置情報とを用いて、制御内容マスターテーブル22の検索を行い、制御内容を取得する。制御装置1はステップS6において、取得した位置情報(ここでは会議室)に対応した装置に対して、制御コマンドを送信する。
 図8に示す例では、映像制御4において、会議室4の制御内容は「-」となっている。これは会議室4には映像出力装置3が設置されておらず、映像制御は行わないことを示している。一方、会議室1については、「file=movie4_1.mpg」という制御内容を示している含むレコードと、「file=movie4_11.mpg」という制御内容を示しているレコードとが含まれている。これは、会議室1には、映像出力装置3が2台設置されており、それぞれ異なるコンテンツを映像出力させることを示している。音響制御1において、会議室2から4については、単にsound4.m4aを再生することが制御内容である。会議室1については、音響出力装置4にサラウンド機能が搭載されているため、サラウンド機能をONにしてsound4.m4aを再生することが制御内容となっている。
 実施の形態3は以下の効果を奏する。制御対象となる部屋ごとに制御内容を定義可能としてあるので、部屋ごとの特性を活かした環境を作り出すことが可能となる。
 実施の形態4
 実施の形態4においては、実施の形態3の変形例として、プロジェクションマッピング技術を用いる。実施の形態4のハードウェア構成、制御処理の内容は、一部を除いて実施の形態3と同様であるので、以下の説明においては、主として実施の形態4と異なる点を説明する。
 実施の形態4においては、制御対象となる会議室の大きさや形状、映像出力装置3を構成するプロジェクタの性能、会議室での設置位置は既知であるものとする。そして、これらの情報に基づきプロジェクションマッピング用の映像が用意されている。制御装置1は、実施の形態3と同様に、制御対象となる会議室の情報とともに映像情報を制御内容マスターテーブル22より取得する。制御装置1は制御対象となる会議室の映像出力装置3に取得した映像情報を再生させる。また、制御装置1は映像に対応した音声情報を制御対象となる会議室の音響出力装置4に再生させる。
 実施の形態4は以下の効果を奏する。映像出力にプロジェクションマッピングの技術を用いることにより、作り出した環境について、ユーザ(観者)に真実味を感じさせることが可能となる。
 実施の形態5
 実施の形態5はユーザの状況変化により、作り出す環境の切替を行う構成に関する。図9は本発明の一実施形態に係る空間制御システム10の構成例を示す説明図である。上述の空間制御システム10の構成に加えて、人感センサ71、撮像装置72を含んでいる。実施の形態5における制御装置1のハードウェア構成、制御処理の内容は、一部を除いて実施の形態1と同様であるので、以下の説明においては、主として実施の形態1と異なる点を説明する。
 人感センサ71は、例えば赤外線センサ(パッシブ、アクティブ)や超音波センサなどである。また、撮像装置72はビデオカメラ、レーザレンジファインダなどである。人感センサ71や撮像装置72は、制御対象となる部屋などに設置され、ユーザの状態を検知する。人感センサ71、撮像装置72は検知結果を、入力部15を介して制御装置1に入力する。人感センサ71、撮像装置72は検知結果を、ネットワークN、通信部17を介して制御装置1に入力してもよい。また、人感センサ71は、ベッドや椅子、ソファなど取り付ける圧電式センサでも良い。
 図10は本発明の一実施形態に係る制御スケジュールテーブル23のレコードレイアウトの一例を示す説明図である。制御スケジュールテーブル23は、開始時刻列、目的列、制御名列、後続ID列を含む。実施の形態1と比較して、後続ID列が追加されているのが特徴である。開始時刻列、目的列、制御名列は、実施の形態1と同様であるので、説明を省略する。後続ID列は制御の切替を行う場合に、それに関する情報が書かれた後続テーブル(後述)のレコードIDを記憶する。後続IDに値が無い場合は、切替を行わないことを示す。
 図11は本発明の一実施形態に係る後続テーブル24のレコードレイアウトの一例を示す説明図である。後続テーブル24は、ID列、トリガ列、制御名列、後続列を含む。ID列はレコードを特定するID(主キー)を記憶する。トリガ列は制御を切り替える条件を記憶する。制御名列は、切替後の制御情報を特定する制御名を記憶する。後続列はさらに、制御切り替える場合に、それに関するレコードのIDを記憶する。
 図10に示す例では、7:00から映像制御1などによる制御を開始した後に、後続IDが1で特定される後続テーブル24のレコードに従う制御を行うことを示している。そして、図11に示す例では、IDが1のレコードでは、ユーザが起床したことをトリガに制御を映像制御名2等に切り替えること、その後の切替はないことを示している。なお、ユーザが起床したことは、ベッドに設置した人感センサ71やベッド以外に設置した人感センサ71で検知する。また、撮像装置72で室内を撮像することにより検知する。
 図12は本発明の一実施形態に係る制御処理の手順を示すフローチャートである。図12に示すステップS1からステップS7は、上述した図6のステップS1からステップS7と同様な処理であるので、説明を省略する。
 制御装置1のCPU11は未処理機器があると判定した場合(ステップS7でYES)、処理をステップS4に戻す。CPU11は未処理機器がないと判定した場合(ステップS7でNO)、切替があるか否かを判定する(ステップS8)。すなわち、ステップS3で検索ヒットしたレコードの後続列にIDが記憶されているか否かを判定する。CPU11は切替がある、すなわち、後続列にIDが記憶されていると判定した場合(ステップS8でYES)、後続IDをRAM12等の一時記憶領域に記憶する(ステップS9)。CPU11は切替タイマを起動し(ステップS10)、処理を終了する。切替タイマは、例えば、計時部18により実現されるインターバルタイマであり、条件を満たす毎に制御切替処理を実行する。CPU11は切替がない、すなわち、後続列にIDが記憶されていないと判定した場合(ステップS8でNO)、処理を終了する。実施の形態1と同様に、図12に示す制御処理は、例えば、計時部18により実現されるタイマ割り込みにより、繰り返し実行される。
 図13は本発明の一実施形態に係る制御切替処理の手順を示すフローチャートである。CPU11は、RAM12等の一時記憶領域に記憶されている後続IDを元に、後続テーブル24からレコードを取得する(ステップS11)。CPU11は取得したレコードのトリガ列に記憶されている条件が満たされているか否かを判定する(ステップS12)。CPU11は条件が満たされていないと判定した場合(ステップS12でNO)、処理を終了する。CPU11は条件が満たされていると判定した場合(ステップS12でYES)、切替タイマを停止する(ステップS13)。
 CPU11はステップS11で取得したレコードに記憶されている制御名を取得する(ステップS14)。CPU11は制御内容マスターテーブル22を検索し、取得した制御名に対応した制御内容を取得する(ステップS15)。CPU11は制御内容に対応する装置に、制御コマンドを送信する(ステップS16)。CPU11は未処理の機器があるか否かを判定する(ステップS17)。CPU11は未処理機器があると判定した場合(ステップS17でYES)、処理をステップS14に戻す。
 CPU11は未処理機器がないと判定した場合(ステップS17でNO)、切替があるか否かを判定する(ステップS18)。すなわち、ステップS11で取得したレコードの後続列にIDが記憶されているか否かを判定する。CPU11は切替がある、すなわち、後続列にIDが記憶されていると判定した場合(ステップS18でYES)、後続IDをRAM12等の一時記憶領域に記憶する(ステップS19)。CPU11は切替タイマを起動し(ステップS20)、処理を終了する。CPU11は切替がない、すなわち、後続列にIDが記憶されていないと判定した場合(ステップS18でNO)、処理を終了する。
 実施の形態5は以下の効果を奏する。制御内容を切り替える機能を備えたことにより、ユーザが起床、食事、整容と言った一連の行動を行う家屋などにおいては、行動に従った環境を作り出すことが可能となる。
 実施の形態6
 実施の形態6はユーザの動作により制御を切り替える形態である。実施の形態6におけるハードウェア構成、制御処理の内容は、一部を除いて実施の形態5と同様であるので、以下の説明においては、主として実施の形態5と異なる点を説明する。
 実施の形態6では、実施の形態5と同様に制御の切替が定義されている場合に、切替を明示的な行動により行うものである。以下の説明においては、上述の切替タイマが起動され、図13に示す制御切替処理が繰り返し実行されていることを前提とする。
 ユーザは起床して制御を切り替えたいと考えた場合、撮像装置72に対して特定のジェスチャーを行う。例えば、胸の前で両腕を交差させる。制御装置1は図13のステップS12において、撮像装置72から取得した画像をパターンマッチングにより認識し、ユーザが胸の前で両腕を交差させる動作をしたこと検知した場合、条件を満たすと判定して(ステップS12でYES)、制御を切り替える。パターンマッチングを行うためのデータは、予め大容量記憶装置14等に記憶されているものとする。
 なお、切替以外の所定のジェスチャー、例えば、指との間を閉じた手のひらを撮像装置72に向けた場合、制御装置1による制御を停止するようにしても良い。
 実施の形態6は以下の効果を奏する。ユーザはジェスチャーにより、制御の切替や停止を指示することができるので、操作性を向上することが可能となる。
 なお、実施の形態1から実施の形態5において、制御の停止は、ユーザが制御装置1の入力部15を用いて指示すれば良い。また、制御スケジュールテーブル23に停止時刻列を設け、停止時刻列に記憶されている時刻に達したら、制御を停止してもよい。
 また、制御装置1をタブレットコンピュータやスマートフォンなどの容易に移動可能なコンピュータで構成してもよい。さらに、制御装置1をロボット、プロジェクタ、オーディオ機器といった装置に組み込んでも良い。さらに、映像出力装置3や音響出力装置4など、五感の少なくとも1つに変化を与える事象を生じさせる装置を制御装置1と一体化しても良い。
 各実施例で記載されている技術的特徴(構成要件)はお互いに組み合わせ可能であり、組み合わせすることにより、新しい技術的特徴を形成することができる。
 今回開示された実施の形態はすべての点で例示であって、制限的なものでは無いと考えられるべきである。本発明の範囲は、上記した意味では無く、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
 10  空間制御システム
 1   制御装置
 2   制御情報データベース
 21  制御情報マスターテーブル
 22  制御内容マスターテーブル
 23  制御スケジュールテーブル
 3   映像出力装置
 4   音響出力装置
 5   空気調節装置
 6   照明器具
 N   ネットワーク

Claims (5)

  1.  時間情報及び起動目的を含む起動情報を取得する取得部と、
     取得した起動目的に対応する映像に関する映像情報を含む制御情報を、起動目的及び制御情報を対応付けた記憶部から読み出す読み出し部と、
     前記時間情報で定める時間に達した場合には、読み出した制御情報に基づき、被投影物に対して所定の映像を投影するための映像出力装置を制御して前記起動目的に対応した映像を投影させる制御部と
     を備えることを特徴とする制御装置。
  2.  前記制御情報は、前記起動目的に沿った、五感の少なくとも1つに訴える事象に関する情報をさらに含み、
     前記制御部は、前記五感の少なくとも1つに訴える事象を実現する装置を制御して該事象を実行させることを特徴とする請求項1に記載の制御装置。
  3.  前記記憶部は制御情報及び位置情報を対応付けて記憶してあり、
     位置情報を取得する位置取得部を備え、
     前記読み出し部は、取得した位置情報に対応した制御情報を読み出す
     ことを特徴とする請求項1に記載の制御装置。
  4.  ユーザの活動状態の変化を取得する変化取得部と、
     該変化取得部がユーザの活動状態の変化を取得したときに、前記制御部は前記映像出力装置への制御内容を変更する
     ことを特徴とする請求項1に記載の制御装置。
  5.  時間情報及び起動目的を含む起動情報を取得し、
     取得した起動目的に対応する映像情報を含む制御情報を、起動目的及び制御情報を対応付けた記憶部から読み出し、
     前記時間情報で定める時間に達した場合には、読みだした制御情報に基づき、被投影物に対して所定の映像を投影するための映像出力装置を制御して前記起動目的に対応した映像を投影させる
     処理をコンピュータに実行させるコンピュータプログラム。
PCT/JP2015/076974 2015-09-24 2015-09-24 制御装置及びコンピュータプログラム WO2017051463A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2015/076974 WO2017051463A1 (ja) 2015-09-24 2015-09-24 制御装置及びコンピュータプログラム
JP2017541202A JPWO2017051463A1 (ja) 2015-09-24 2015-09-24 制御装置及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/076974 WO2017051463A1 (ja) 2015-09-24 2015-09-24 制御装置及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
WO2017051463A1 true WO2017051463A1 (ja) 2017-03-30

Family

ID=58386406

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/076974 WO2017051463A1 (ja) 2015-09-24 2015-09-24 制御装置及びコンピュータプログラム

Country Status (2)

Country Link
JP (1) JPWO2017051463A1 (ja)
WO (1) WO2017051463A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05187684A (ja) * 1992-01-10 1993-07-27 Hitachi Ltd 居室環境の制御システム、疑似体験システムおよびそれに用いる記録媒体
JP2005098043A (ja) * 2003-08-21 2005-04-14 Misawa Homes Co Ltd 居室環境演出装置
JP2005135196A (ja) * 2003-10-30 2005-05-26 Nippon Telegr & Teleph Corp <Ntt> 環境情報通信システム、環境情報収集装置および環境情報出力装置
JP2005332272A (ja) * 2004-05-20 2005-12-02 Kajima Corp ビルの管理システムおよび管理方法
JP2007053560A (ja) * 2005-08-17 2007-03-01 Sony Corp 空間演出方法および装置
WO2014006876A1 (ja) * 2012-07-05 2014-01-09 パナソニック株式会社 空調制御装置、および空調システム
WO2015114810A1 (ja) * 2014-01-31 2015-08-06 三菱電機株式会社 電気機器管理装置、電気機器管理システム、電気機器、端末装置及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05187684A (ja) * 1992-01-10 1993-07-27 Hitachi Ltd 居室環境の制御システム、疑似体験システムおよびそれに用いる記録媒体
JP2005098043A (ja) * 2003-08-21 2005-04-14 Misawa Homes Co Ltd 居室環境演出装置
JP2005135196A (ja) * 2003-10-30 2005-05-26 Nippon Telegr & Teleph Corp <Ntt> 環境情報通信システム、環境情報収集装置および環境情報出力装置
JP2005332272A (ja) * 2004-05-20 2005-12-02 Kajima Corp ビルの管理システムおよび管理方法
JP2007053560A (ja) * 2005-08-17 2007-03-01 Sony Corp 空間演出方法および装置
WO2014006876A1 (ja) * 2012-07-05 2014-01-09 パナソニック株式会社 空調制御装置、および空調システム
WO2015114810A1 (ja) * 2014-01-31 2015-08-06 三菱電機株式会社 電気機器管理装置、電気機器管理システム、電気機器、端末装置及びプログラム

Also Published As

Publication number Publication date
JPWO2017051463A1 (ja) 2018-08-30

Similar Documents

Publication Publication Date Title
JP7254894B2 (ja) 接続式照明システム
JP2009519489A5 (ja)
KR20080083319A (ko) 인공 분위기를 생성하기 위한 조명 시스템, 이미징 시스템, 제어 시스템, 이미지 디스플레이 방법 및 컴퓨터 판독가능한 매체
US20120081030A1 (en) Lighting control device
ES2812300T3 (es) Control de iluminación
JP7266537B2 (ja) コネクテッド照明システムの使用方法
WO2020081967A1 (en) System for providing an immersive experience using multi-platform smart technology, content streaming, and special effects systems
KR20110059780A (ko) 양방향 환경 생성 시스템
JP2019527911A (ja) 存在模倣
WO2021215251A1 (ja) 操作スイッチ及び機器連携システム
Hlubinka et al. AltarNation: interface design for meditative communities
JP6902171B2 (ja) 照明システムを制御するための方法及び装置
WO2017051463A1 (ja) 制御装置及びコンピュータプログラム
WO2022070456A1 (ja) 環境制御システム、環境制御方法、及びプログラム
WO2022070914A1 (ja) 環境制御システム、環境制御方法、及びプログラム
CN113424659B (zh) 增强用户对光场景的识别
JP2017157376A (ja) 照明システム、照明制御装置、照明制御プログラムおよび照明制御方法
JP7482432B2 (ja) 環境制御システム、環境制御方法、及びプログラム
US10917683B2 (en) Multimedia system for transforming any room into a show environment
Frantova et al. Extra-personal awareness through the media-rich environment
Fisek Palimpsests of Violence: Urban Dispossession and Political Theatre in Istanbul.
WO2023074000A1 (ja) 環境制御システム、環境制御方法、及びプログラム
Montgomery et al. Home automation: A complete guide to buying, owning and enjoying a home automation System
Hann Dwelling in light and sound: An intermedial site for digital opera
JP2024017033A (ja) 環境制御システム、環境制御方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15904720

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017541202

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15904720

Country of ref document: EP

Kind code of ref document: A1