WO2017051462A1 - 制御装置及びコンピュータプログラム - Google Patents

制御装置及びコンピュータプログラム Download PDF

Info

Publication number
WO2017051462A1
WO2017051462A1 PCT/JP2015/076969 JP2015076969W WO2017051462A1 WO 2017051462 A1 WO2017051462 A1 WO 2017051462A1 JP 2015076969 W JP2015076969 W JP 2015076969W WO 2017051462 A1 WO2017051462 A1 WO 2017051462A1
Authority
WO
WIPO (PCT)
Prior art keywords
control
information
column
output
video
Prior art date
Application number
PCT/JP2015/076969
Other languages
English (en)
French (fr)
Inventor
栗原 正和
Original Assignee
フィールズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フィールズ株式会社 filed Critical フィールズ株式会社
Priority to PCT/JP2015/076969 priority Critical patent/WO2017051462A1/ja
Priority to JP2017541201A priority patent/JPWO2017051462A1/ja
Publication of WO2017051462A1 publication Critical patent/WO2017051462A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units

Definitions

  • the present invention relates to a control device that outputs control information to other devices.
  • Patent Document 1 describes an awakening system that awakens a person sleeping in a bedroom using an image projected by a projector device.
  • a virtual reality space is also constructed using a video output device, but it has not been utilized on a daily basis.
  • the present invention has been made in view of such circumstances, and it is an object of the present invention to provide a control device and the like that outputs control information for creating an environment in a room that matches the purpose of use of the room and the preference of the user.
  • One aspect of the present application is an acquisition unit that acquires time information indicating timing for operating a plurality of output devices that perform different types of outputs according to a predetermined usage purpose, and purpose information including the predetermined usage purpose; The time information acquired from the storage unit that associates the control information, the time information, and the use purpose of each of the plurality of output devices according to both the time information and the predetermined use purpose. And a reading unit that reads control information corresponding to the purpose information, and an output unit that outputs a control command based on the read control information to the plurality of output devices.
  • FIG. 1 is an explanatory diagram showing a configuration example of a space control system 10 according to an embodiment of the present invention.
  • the space control system 10 includes a control device 1, a control information database 2, a video output device 3, a sound output device 4, an air conditioner 5, and a lighting fixture 6.
  • Each device included in the space control system 10 is connected to be communicable with each other via a network N.
  • the control device 1 is a general-purpose computer, a workstation, a desktop PC (personal computer), a notebook PC, or the like.
  • the control information database 2 stores various data.
  • the video output device 3 outputs video and includes, for example, a liquid crystal display device, a projector, and the like.
  • the sound output device 4 outputs sound and includes a music player, an amplifier, a speaker, and the like.
  • the air conditioner 5 adjusts air such as temperature and humidity, and includes an air conditioner, a humidifier, a dehumidifier, an odor generator, and the like.
  • the lighting fixture 6 includes a light bulb, a fluorescent lamp, an LED (Light Emitting Diode), and the like.
  • the space control system 10 may include a unit in which the video output device 3 and the audio output device 4 are integrated, such as a television receiver.
  • FIG. 2 is a block diagram showing an example of a hardware configuration of the control device 1 according to an embodiment of the present invention.
  • the control device 1 includes a CPU (Central Processing Unit) 11, a RAM (Random Access Memory) 12, a ROM (Read Only Memory) 13, a mass storage device 14, an input unit 15, an audio input unit 16, an output unit 17, and a communication unit. 18, a timer 19 and a reading unit 20 are included. Each component is connected by a bus B.
  • the CPU 11 controls each part of the hardware according to a control program 1P (computer program) stored in the ROM 13.
  • the RAM 12 is, for example, SRAM (Static RAM), DRAM (Dynamic RAM), or flash memory.
  • the RAM 12 temporarily stores data generated when the CPU 11 executes the control program 1P.
  • the mass storage device 14 is, for example, a hard disk, an SSD (Solid State Drive), or the like.
  • the mass storage device 14 stores various data such as video data and audio data.
  • the control program 1P and the data generated when the control program 1P is executed may be stored in the mass storage device 14.
  • the input unit 15 includes a keyboard, a mouse and the like for inputting data to the control device 1.
  • the voice input unit 16 includes a microphone for inputting voice instructions to the control device 1.
  • the output unit 17 includes a display device that outputs an image, a speaker that outputs sound, and the like.
  • the communication unit 18 communicates with other devices and other computers via the network N.
  • the timer unit 19 measures time and measures elapsed time.
  • the reading unit 20 reads a portable storage medium 1a including a CD (Compact Disc) -ROM and a DVD (Digital Versatile Disc) -ROM.
  • the CPU 11 may read the control program 1P from the portable storage medium 1a via the reading unit 20 and store it in the mass storage device 14. Further, the CPU 11 may download the control program 1P from another computer via the network N and store it in the mass storage device 14. Furthermore, the CPU 11 may read the control program 1P from the semiconductor memory 1b.
  • FIG. 3 is an explanatory diagram showing an example of a record layout of the scenario attribute table 21 according to an embodiment of the present invention.
  • the scenario attribute table 21 includes an ID (Identification) column, a purpose / scene column, an overview column, a time zone column, and a scenario ID column.
  • the ID column stores an ID that uniquely identifies the record.
  • the purpose / scene column stores the purpose of use and the scene of use.
  • the summary column stores a descriptive text indicating a summary of the purpose of use and usage scene.
  • the time zone column stores a settable time zone value.
  • the scenario ID column stores an ID that identifies the corresponding scenario. The scenario will be described later.
  • FIG. 4 is an explanatory diagram showing an example of a record layout of the video control master table 22 according to an embodiment of the present invention.
  • the video control master table 22 includes an ID column, a source column, and a parameter column.
  • the ID column stores an ID that uniquely identifies the record.
  • the source column stores the video source.
  • the notation “file: // ...” indicates that the video source is stored in the mass storage device 14.
  • the notation “local: // ...” indicates that the video source is stored in a server in the local network.
  • the notation “http: // ...” indicates that the video source is stored in a server on the Internet.
  • the parameter column stores setting parameters of the video output device 3 when playing back video.
  • the setting parameters are, for example, contrast, brightness, color temperature, hue, color density, and the like. Since the video output device 3 displays the video related to the video source according to the setting parameter, the video source and the setting parameter can be said to be factors that determine the operation mode (output mode) of the video output device 3.
  • FIG. 5 is an explanatory diagram showing an example of a record layout of the acoustic control master table 23 according to an embodiment of the present invention.
  • the acoustic control master table 23 includes an ID column, a source column, and a parameter column.
  • the ID column stores an ID that uniquely identifies the record.
  • the source column stores the location of an audio file that is an acoustic source.
  • the notation format is the same as that of the video control master table 22 described above.
  • the parameter column stores setting parameters of the sound output device 4 when reproducing the sound source.
  • the setting parameters are, for example, volume, surround ON / OFF, equalizer settings, and the like. Since the sound output device 4 outputs the sound related to the sound source along the set parameters, the sound source and the set parameters can be said to be factors that determine the operation mode (output mode) of the sound output device 4.
  • FIG. 6 is an explanatory diagram showing an example of a record layout of the air conditioning control master table 24 according to an embodiment of the present invention.
  • the air conditioning control master table 24 includes an ID column and a parameter column.
  • the ID column stores an ID that uniquely identifies the record.
  • the parameter column stores operation parameters of the air conditioner 5.
  • the operating parameters are, for example, room temperature, humidity, and air volume. Since the air conditioner 5 air-conditions along the operation parameter, it can be said that the operation parameter is an element that determines the operation mode (output mode) of the air conditioner 5.
  • FIG. 7 is an explanatory diagram showing an example of a record layout of the lighting control master table 25 according to an embodiment of the present invention.
  • the lighting control master table 25 includes an ID column and a parameter column.
  • the ID column stores an ID that uniquely identifies the record.
  • the parameter column stores operation parameters of the lighting fixture 6.
  • the operation parameter is, for example, a light control level, a color temperature, or the like. Since the luminaire 6 adjusts the lighting according to the operation parameter, the operation parameter can be said to be an element that determines the operation mode (output mode) of the luminaire 6.
  • FIG. 8 is an explanatory diagram showing an example of a record layout of the scenario master table 26 according to an embodiment of the present invention.
  • the scenario master table 26 includes a scenario ID column, a video control column, an acoustic control column, an air conditioning control column, and a lighting control column.
  • the scenario ID column stores an ID that uniquely identifies the record.
  • the video control column stores an ID for specifying a record in the video control master table 22.
  • the acoustic control column stores an ID that identifies a record in the acoustic control master table 23.
  • the air conditioning control column stores an ID that identifies a record in the air conditioning control master table 24.
  • the illumination control column stores an ID that identifies a record in the illumination control master table 25.
  • FIG. 9 is an explanatory diagram showing an example of a record layout of the control schedule table 27 according to an embodiment of the present invention.
  • the control schedule table 27 includes an ID column, a start date column, a start time column, an end time column, and a scenario ID column.
  • the ID column stores an ID that identifies a record in the control schedule table 27.
  • the start date column stores the date when control is started. If the month and day are stored in the start date column, it is handled that only the corresponding day is specified. When the day of the week is stored in the start date column, it is handled that the day of the week is specified. When holidays are stored in the start date column, it is treated that Sundays and holidays are specified.
  • the scenario ID stores the ID of the record in the scenario master table 26 used for control. Note that Saturdays may be included in the holidays.
  • FIG. 10 is a flowchart showing an example of a procedure of schedule setting processing according to an embodiment of the present invention.
  • the CPU 11 of the control device 1 accepts the purpose / scene (step S1). More specifically, the CPU 11 causes the output unit 17 to display a screen for selecting a purpose / scene, and the user selects one of the displayed purposes / scenes via the input unit 15.
  • the CPU 11 receives a start condition (step S2). As described above, the CPU 11 causes the output unit 17 to display a screen for setting the start condition, and the user sets the start condition via the input unit 15 using the displayed screen. At the same time, an end condition may be set.
  • the CPU 11 generates a control schedule from the received purpose / scene and start condition, stores it in the control schedule table 27 (step S3), and ends the process.
  • the CPU 11 selects a record whose ID is 1 in which the purpose / scene is awake and the time zone is morning. ID is defined as 1.
  • FIG. 11 is a flowchart showing an example of a procedure of schedule execution processing according to an embodiment of the present invention.
  • the CPU 11 of the control device 1 acquires the current time from the timer unit 19 (step S11).
  • the CPU 11 searches the control schedule stored in the control schedule table 27 for a control schedule that has reached the start time or end time (step S12).
  • the CPU 11 determines whether the hit record has hit at the start time (step S13). If the CPU 11 determines that the hit has occurred at the start time (YES in step S13), the CPU 11 acquires a scenario from the scenario master table 26 based on the scenario ID included in the control schedule (step S14).
  • the CPU 11 acquires video control information (source, parameter, etc.) from the video control master table 22 based on the video control ID included in the acquired scenario, and controls the video output device 3 based on the acquired video control information. This is performed (step S15).
  • the CPU 11 acquires sound control information (source, parameter, etc.) from the sound control master table 23 based on the sound control ID included in the acquired scenario, and controls the sound output device 4 based on the acquired sound control information.
  • step S16 The CPU 11 acquires air conditioning control information (such as parameters) from the air conditioning control master table 24 based on the air conditioning control ID included in the acquired scenario, and controls the air conditioner 5 based on the acquired air conditioning control information ( Step S17).
  • the CPU 11 acquires lighting control information (such as parameters) from the lighting control master table 25 based on the lighting control ID included in the acquired scenario, and controls the lighting fixture 6 based on the acquired lighting control information (step) S18).
  • the CPU 11 ends the process.
  • the execution order of step S15 to step S18 is not restricted to this. You may change according to the contents of a scenario.
  • the schedule execution process is repeatedly executed by an interrupt of an interval timer realized by the time measuring unit 19.
  • step S19 determines whether the hit record has been hit at the end time. If the CPU 11 determines that a hit has occurred at the end time (YES in step S19), the control of the video output device 3 is stopped (step S20), the control of the sound output device 4 is stopped (step S21), and the air conditioner 5 Control is stopped (step S22), control of the lighting fixture 6 is stopped (step S23), and a process is complete
  • the control device 1 of Embodiment 1 has the following effects. By simply specifying the purpose / scene and the activation time, the user can create an environment suitable for the purpose / scene in the room at a desired time.
  • Embodiment 2 The second embodiment relates to a mode in which a scenario is created or changed according to a user's desire.
  • the description of the same part as in the first embodiment is omitted, and the part different from the first embodiment will be mainly described.
  • the user can use the voice input unit 16 to instruct the control device 1 of the environment that the user wants to experience.
  • the content “I want to taste the feeling of being at a beach in Hawaii” is instructed.
  • FIG. 12 is an explanatory diagram showing an example of a record layout of the search result storage table 28 according to an embodiment of the present invention.
  • the search result storage table 28 is stored in the control information database 2. Alternatively, it may be stored in the mass storage device 14 of the control device 1.
  • the search result storage table 28 stores search results using a search engine. In the example shown in FIG. 12, the result when a moving image is searched using an Internet search engine is stored.
  • the search result storage table 28 includes an ID column, a keyword column, a rank column, a source column, an attribute column, and an evaluation column.
  • the ID column stores an ID that uniquely identifies a record in the search result storage table 28.
  • the keyword string stores the keywords used for the search.
  • the rank column stores the order displayed as search results.
  • the source column stores the source of the video that hits the search.
  • the source indicates the location of the moving image, and is, for example, a URL (Uniform Resource Locator).
  • the attribute column stores a description about the content of the moving image, a meta tag attached to the moving image, and the like.
  • the evaluation column stores evaluations for moving images. In the example shown in FIG. 12, the higher the ranking shown by the rank, the higher the evaluation.
  • FIG. 13 is a flowchart showing an example of a procedure of schedule setting processing according to an embodiment of the present invention.
  • the CPU 11 of the control device 1 receives the content of the environment that the user wants to experience (step S31).
  • the CPU 11 continues to accept start conditions (step S32). For example, when the user wishes to wake up in an environment he / she wants to experience, the wake-up time is accepted as the start time.
  • the CPU 11 recognizes the content of the user's request input by voice using a known voice recognition technique, and further extracts a search keyword using a syntax analysis technique or the like (step S33). The CPU 11 performs a search using the extracted search keyword (step S34).
  • the CPU 11 stores the search result in the search result storage table 28 (step S35). At this time, the CPU 11 stores the search keyword, the rank value according to the display order, and the evaluation value obtained from the rank value. For example, the maximum value of the number of records to be stored is determined, the evaluation value is set as the maximum value of the evaluation value, the evaluation value is assigned to the first rank, and the evaluation value is assigned to the lowest rank. Give one. Further, the evaluation value may be determined depending on how many times the search keyword appears in the attribute and the description stored.
  • the CPU 11 creates a scenario in which the ranked first moving image obtained as a search result in step S34 is reproduced and stored in the scenario master table 26 (step S36).
  • the CPU 11 creates video control information for reproducing the above-described moving image and stores it in the video control master table 22. Parameters are set as appropriate.
  • the CPU 11 creates acoustic control information, air conditioning control information, and lighting control information, and stores them in the acoustic control master table 23, the air conditioning control master table 24, and the lighting control master table 25. Based on these results, the CPU 11 creates a scenario.
  • the parameters included in each information may be predetermined initial values. Further, when climatic data (temperature, humidity, sunshine duration, etc.) is obtained regarding the environment to be created, the CPU 11 may set parameters for air conditioning control and lighting control based on them. In the process shown in FIG.
  • step S33 when there is a grace period until the scenario is executed, the CPU 11 executes the process from step S33 to step S36 (or step S37) in the background or at night when there is little process. It may be executed.
  • step S36 or step S37
  • the CPU 11 creates a schedule for executing the scenario, stores it in the control schedule table 27 (step S37), and ends the process.
  • the CPU 11 of the control device 1 accepts a voice input “I want to taste the feeling of being on the beach in Hawaii” from the user via the voice input unit 16 (step S31). Then, the CPU 11 accepts 6:30 in the morning as a start time as a start condition via the voice input unit 16 (step S32). The CPU 11 of the control device 1 extracts “Hawaii” and “Beach” as search keywords by voice recognition and syntax analysis (step S33). The CPU 11 adds the keyword “moving image” to these, and performs an Internet search using a search engine (step S34). The CPU 11 stores the search result in the search result storage table 28 (step S35). In the example shown in FIG. 12, the top five search results are stored.
  • the rank 1 rank is the evaluation value 5
  • the rank 5 rank is the evaluation value 1.
  • the CPU 11 generates video control information and the like for reproducing the moving image ranked first, and stores it in the video control master table 22 and the like.
  • the CPU 11 creates a scenario from the generated video control information etc. and stores it in the scenario master table 26 (step S36).
  • the CPU 11 creates a control schedule for starting the stored scenario at 6:30 in the morning, stores it in the control schedule table 27 (step S37), and ends the process.
  • the control device 1 creates and executes a scenario according to the user's request, but the content may not meet the user's request. In such a case, the scenario is changed by an input from the user. In the following description, it is assumed that the video that is output from the video output device 3 is requested to be changed.
  • FIG. 14 is a flowchart showing an example of a procedure for scenario change processing according to an embodiment of the present invention.
  • the scenario change process is activated when the input unit 15 or the voice input unit 16 receives an instruction content input from the user.
  • the CPU 11 of the control device 1 analyzes the contents of the user instruction received via the input unit 15 (step S41).
  • the CPU 11 performs voice recognition and syntax analysis using a known technique.
  • the CPU 11 determines whether or not the user instruction is a scenario change (step S42).
  • the CPU 11 When the user performs voice input, the CPU 11 performs semantic analysis, which is a known technique, from the result of syntax analysis, and determines whether the user is requesting a scenario change. When the user inputs a command using a keyboard or mouse, it is determined whether or not the input command is a scenario change command.
  • step S43 the CPU 11 acquires the next data of the output video data from the search result storage table 28 (step S43). That is, the next point data is data in the next rank of the output video data when the search results are arranged in the order of evaluation values. It is assumed that the scenario being executed is associated with the record of the search result storage table 28. For example, the record ID of the search result storage table 28 may be stored in the scenario master table 26.
  • the CPU 11 performs control switching (step S44). That is, the video data output from the video output device 3 is switched to the next point data acquired in step S43.
  • the CPU 11 updates the evaluation value of the video data before switching (step S45).
  • a predetermined value is subtracted from the evaluation value of the corresponding record stored in the search result storage table 28, set to 0, or set to a negative value.
  • the corresponding record may be deleted.
  • CPU11 updates a scenario (step S46) and complete
  • the CPU 11 determines that the instruction from the user is not a scenario change (NO in step S42), the process is terminated.
  • Embodiment 2 has the following effects. Since the control device 1 accepts an instruction input by voice, the user can easily give an instruction to the control device 1. In addition, when the user inputs the contents of the scenario, for example, that the output video is not suitable, the control device 1 changes the output contents and also updates the scenario. Thereby, the scenario is updated to suit the user's preference, and the user's satisfaction can be improved.
  • Embodiment 3 relates to a mode of selecting content based on geographic information.
  • the scenario master table 26 includes an ID column, a purpose / scene column, a location column, a geographic coordinate column, a moving image source column, and a parameter column.
  • the ID column stores an ID that uniquely identifies a record in the scenario master table 26.
  • the purpose / scene column stores the purpose of use and the scene of use.
  • the place name column stores place names indicating places.
  • the geographic coordinate string stores geographic coordinates indicating a location, such as latitude and longitude.
  • the moving image source column stores a moving image source, for example, a source file name.
  • the parameter column stores parameters for controlling the video output device 3, the audio output device 4, the air conditioner 5, and the lighting fixture 6.
  • only the scenario master table 26 can control the video output device 3, the sound output device 4, the air conditioner 5, and the lighting fixture 6.
  • the control schedule table 27 is the same as that in the first embodiment.
  • control device 1 is assumed to be a portable device such as a tablet computer, a smartphone, or a mobile phone. Also. It is assumed that the control device 1 can acquire the geographical coordinates of the current location such as a GPS (Global Positioning System) receiver.
  • GPS Global Positioning System
  • FIG. 16 is a flowchart showing an example of a procedure of schedule setting processing according to an embodiment of the present invention.
  • the CPU 11 of the control device 1 measures the position of the current location using a GPS receiver or the like (step S51).
  • the CPU 11 filters records in the scenario master table 26 based on position information (for example, latitude and longitude) obtained by position measurement (step S52). That is, the acquired position information is compared with the geographical coordinates of each record in the scenario master table 26, and only records associated with the current location or a location close to the current location are processed.
  • the CPU 11 displays a list of scenarios on the output unit 17 (step S53).
  • the CPU 11 receives the purpose / scene selected by the user via the input unit 15 (step S54).
  • the CPU 11 receives a scenario start condition via the input unit 15 (step S55).
  • the CPU 11 generates a control schedule and stores it in the control schedule table 27 (step S56).
  • Embodiment 3 has the following effects. Since the scenario is filtered based on the position information, it is possible to execute the scenario according to the place where the user stays.
  • the scenario according to the position can be executed by filtering at the time of setting the schedule, but the present invention is not limited to this.
  • the scenario may be changed when the schedule is executed. For example, when an alarm scenario set in Tokyo is executed in New York, the CPU 11 checks the geographical coordinates of the scenario before executing the schedule. When the geographical coordinates of the scenario indicate a place that is far away from the coordinates of the current location, the schedule may be executed after replacing the scenario with the same target / scene and the geographical coordinates close to the current position.
  • Embodiment 4 relates to a form in which an image owned by a user or an image posted by a user to an SNS (Social Networking Service) or the like is utilized.
  • SNS Social Networking Service
  • FIG. 17 is an explanatory diagram showing an example of a record layout of the user content management table 29 according to an embodiment of the present invention.
  • the user content management table 29 is stored in the control information database 2.
  • the user content management table 29 includes an ID column, a file name column, a type column, a shooting date / time column, a creation date / time column, a latitude column, and a longitude column.
  • the ID column stores an ID that uniquely identifies a record in the user content management table 29.
  • the file name column stores the image file name.
  • the image file name string may include a path name indicating the location and a character string constituting the URL.
  • the type column stores the type based on the storage location of the image file name.
  • the shooting date / time column stores the shooting date / time given when the image was shot by a digital camera or the like.
  • the creation date / time column stores the date / time when the image file was created.
  • the longitude column stores the longitude of a shooting location that is given when an image is shot with a digital camera or smartphone with built-in GPS.
  • the latitude column stores the latitude of the shooting location given when the image was shot with a digital camera with a built-in GPS.
  • the shooting date / time, latitude, and longitude are acquired from, for example, Exif (Exchangeable image file format) information.
  • the CPU 11 of the control device 1 creates / updates the user content management table 29 by night batch processing or the like.
  • the CPU 11 searches for the image file stored in the large-capacity storage device 14, and also accesses the SNS used by the user and the server for the photo storage service to search for the image file.
  • the CPU 11 stores information on an image file (hereinafter referred to as “user image”) obtained as a search result in the user content management table 29. It is assumed that the ID and password for accessing the SNS and the photo sharing service are stored in advance in the mass storage device 14 or the like.
  • the CPU 11 transmits information stored in the user content management table 29 and displays the user image superimposed on the output video.
  • the user image to be displayed is selected as follows, for example. The most recent user image whose shooting date or creation date is within the past two weeks is selected and displayed. If the shooting time or creation time is close to the current time, for example, in the morning, a user image shot in the morning is selected and displayed.
  • the control device 1 has a GPS function such as a smartphone, a user image taken at a location close to the current position is selected and displayed based on the current position information acquired by the GPS.
  • a user image taken at a location close to the position related to the position information is selected and displayed. For example, when a video of a beach in Hawaii is output, a user image taken in Hawaii is superimposed and output. When there are a large number of selected images, it is only necessary to switch user images to be superimposed every predetermined time as in a so-called slide show.
  • Embodiment 4 has the following effects.
  • the user image By superimposing the user image on the video output from the video output device 3, the user image can be effectively used. As a result, the user feels sympathy and familiarity with the output video, and improvement of user satisfaction is expected.
  • the user image is superimposed on the video output, but the present invention is not limited to this.
  • a scenario for displaying a user image as a video output may be created.
  • the user image is described as a photographic image, but it may be a moving image.
  • audio data instead of images may be collected and output from the sound output device 4. For example, a song having a large number of playbacks is output as BGM (background music) from information such as music playback software.
  • BGM background music
  • the user content management table 29 is stored in the control information database 2, the user content management table 29 may be stored in the large-capacity storage device 14 of the control device 1 without being limited thereto. Furthermore, it may be stored in the video output device 3.
  • Embodiment 5 the user history is utilized.
  • the history here is a browsing history of a website, a search history of an Internet search engine, a viewing history of a video sharing service, and the like.
  • the description of the same part as in the first embodiment will be omitted, and the part different from the first embodiment will be mainly described.
  • FIG. 18 is an explanatory diagram showing an example of a record layout of the content attribute table 2a according to the embodiment of the present invention.
  • the content is a moving image, a still image, audio, or the like.
  • the content attribute table 2a includes an ID column, a source column, a format column, a shooting date / time column, a creation date / time column, a latitude column, a longitude column, and an evaluation column.
  • the ID column stores an ID that uniquely identifies a record in the content attribute table 2a.
  • the source column stores a path name and URL indicating the location of the content.
  • the format column stores the content format.
  • the format is, for example, a moving image, a still image, or audio.
  • the shooting date / time column stores the date / time when a moving image or still image was shot. If the recording date and time can be acquired in the case of audio, the recording date and time may be stored. Stores the date and time when the content was created. When the creation date / time and the shooting / recording date / time are the same, the same date / time may be stored.
  • the latitude column and the longitude column respectively store the latitude and longitude of the place where the moving image and the still image are taken.
  • the evaluation column stores evaluation values determined based on the history.
  • the CPU 11 of the control device 1 creates / updates the content attribute table 2a by night batch processing or the like.
  • the CPU 11 acquires the browsing history of the user's Web site stored in the mass storage device 14 or the like.
  • the CPU 11 collects attribute information of content (moving image data, still image data, audio data) accessed by the user from the acquired browsing history and stores it in a temporary storage area such as the RAM 12.
  • the CPU 11 accesses a website and acquires attribute information. Further, the CPU 11 evaluates the content from the number of times the website is accessed, and determines an evaluation value. For example, the higher the access count, the higher the evaluation value.
  • the search history of the Internet search engine and the viewing history of the video sharing service are also used to identify content (video data, still image data, audio data) accessed by the user and collect attribute information thereof.
  • the CPU 11 When the CPU 11 causes the video output device 3 to output video based on the scenario, the CPU 11 replaces the video specified in the scenario and outputs a video with a high evaluation value. Also, a still image with a high evaluation value is superimposed on the moving image to be output. On the other hand, when the sound is output from the acoustic output device 4, the sound having a high evaluation value is output instead of the sound specified in the scenario.
  • Embodiment 5 has the following effects. By using various user histories, it is possible to output content that meets the user's hobbies and preferences. Thereby, improvement of user satisfaction is expected.
  • Embodiment 6 In the sixth embodiment, a video different from that on weekdays is output on a holiday.
  • the description of the same part as in the first embodiment will be omitted, and the part different from the first embodiment will be mainly described.
  • FIG. 19 is an explanatory diagram showing an example of a record layout of the video control master table 22 according to the sixth embodiment of the present invention.
  • the video control master table 22 includes an ID column, a holiday column, a source column, and a parameter column. Since the ID column, source column, and parameter column are the same as those in the first embodiment, description thereof is omitted.
  • the holiday column stores a flag for switching depending on whether the execution date of the control (schedule) is a holiday. For example, a record with a holiday column value of 0 is used on weekdays, and a record with a holiday column value of 1 is used on holidays.
  • the holidays are Saturday, Sunday, and holidays, but are not limited thereto. Holidays are Sundays or holidays, and Saturdays may not be included.
  • the CPU 11 specifies an ID and a holiday value when specifying a record to be read from the video control master table 22.
  • the CPU 11 acquires calendar information from the timing unit 19 and determines whether the execution date is a weekday or a holiday.
  • the video source output from the video output device 3 is switched depending on whether the execution date of the control is a weekday or a holiday has been described, but the present invention is not limited thereto.
  • the control of the sound output device 4, the air conditioning device 5, and the lighting fixture 6 may also be changed between weekdays and holidays.
  • Embodiment 6 has the following effects. Since the control device 1 switches the control content depending on whether the execution date of the control is a weekday or a holiday, the control device 1 can tell the user whether it is a weekday or a holiday due to a difference in the control content.
  • Embodiment 7 is a mode for linking with a scheduler.
  • a mode for executing a scenario based on the schedule information stored in the scheduler will be described.
  • the description of the same part as in the first embodiment will be omitted, and the part different from the first embodiment will be mainly described.
  • FIG. 20 is an explanatory diagram showing an example of a record layout of the linked scenario master table 2b according to the embodiment of the present invention.
  • the linked scenario master table 2b includes an ID column, a schedule column, a moving image source column, and a parameter column.
  • the ID column stores an ID that uniquely identifies a record in the linked scenario master table 2b.
  • the schedule column stores a schedule to be linked.
  • the moving image source column stores, for example, a URL indicating the location of the moving image.
  • the parameter string stores control parameters for the video output device 3 and the like.
  • the CPU 11 of the control device 1 reads the user's schedule from the scheduler by night batch processing or the like.
  • the CPU 11 performs matching between the contents of the schedule and the schedule row of the linked scenario master table 2b.
  • the control schedule is stored in the control schedule table 27.
  • the CPU 11 determines that there is a matching schedule
  • the control schedule is stored in the control schedule table 27.
  • ID 2 stored in the linked scenario master table 2 b at 4/1 at 18:00 and stores the control schedule in the control schedule table 27.
  • Embodiment 7 has the following effects. Since the control device 1 automatically generates a control schedule in conjunction with the scheduler, it is possible to provide an environment suitable for the schedule without setting by the user.
  • control with the linkage with the personal scheduler is described, but the present invention is not limited to this. It may be linked with a scheduler shared by multiple people. For example, when linking with a reservation table in a conference room, the control content is determined from the participants, the content of the conference, the department to which the reservation belongs, and the like. As a result, an environment that contributes to the smooth progress of the conference can be constructed in the conference room.
  • transmission of control commands from the control device 1 to the video output device 3, the sound output device 4, the air conditioner 5, and the lighting fixture 6 is performed via the network N. Not limited to that. You may perform by the remote control signal using infrared rays.
  • control device 1 may be configured by a computer that can be easily moved, such as a tablet computer or a smartphone. Further, the control device 1 may be incorporated in a device such as a robot, a projector, or an audio device. Furthermore, a device that causes an event that changes at least one of the five senses, such as the video output device 3 and the audio output device 4, may be integrated with the control device 1.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

使用目的や利用者の嗜好に合わせた環境を作り出すための制御情報を出力する出力装置等を提供すること。 制御装置は、各々が異なる種類の出力を行う複数の出力装置を所定の利用目的に沿って作動させるタイミングを示す時間情報及び利用目的を含む目的情報を取得する取得部と、前記時間情報及び前記所定の利用目的の双方に応じた前記複数の出力装置の各々作動態様に関する制御情報を、前記時間情報、及び前記利用目的を対応付けた記憶部から、前記取得した、時間情報及び利用目的に応じた制御情報を読み出す読み出し部と、前記読み出した制御情報に基づく制御コマンドを、他の機器に出力する出力部とを備える。

Description

制御装置及びコンピュータプログラム
 本発明は他機器へ制御情報を出力する制御装置等に関する。
 近年、映像出力装置の普及に伴い、映像出力装置を映像鑑賞以外に用いることが試みられている。特許文献1には、寝室内で寝ている人を、プロジェクタ装置によって投影された映像を用いて覚醒させる覚醒システムが記載されている。
特開2007-248052号公報
 一方、映像出力装置を用いて仮想現実空間を構築することも行われているが、日常的に活用するには至っていない。本発明は斯かる事情に鑑みてなされたものであって、部屋の使用目的や利用者の嗜好に合わせた環境を室内に作り出すための制御情報を出力する制御装置等を提供することにある。
 本願の一観点は、各々が異なる種類の出力を行う複数の出力装置を所定の利用目的に沿って作動させるタイミングを示す時間情報及び前記所定の利用目的を含む目的情報を取得する取得部と、前記時間情報及び前記所定の利用目的の双方に応じた前記複数の出力装置の各々の作動態様に関する制御情報、前記時間情報、及び前記利用目的を対応付けた記憶部から、前記取得した、時間情報及び目的情報に応じた制御情報を読み出す読み出し部と、前記読み出した制御情報に基づく制御コマンドを、前記複数の出力装置に出力する出力部とを備えることを特徴とする。
 本発明によれば、部屋の使用目的や利用者の嗜好に合わせた環境を作り出すことが可能となる。
本発明の一実施形態に係る空間制御システムの構成例を示す説明図である。 本発明の一実施形態に係る制御装置のハードウェア構成の一例を示すブロック図である。 本発明の一実施形態に係るシナリオ属性テーブルのレコードレイアウトの一例を示す説明図である。 本発明の一実施形態に係る映像制御マスタテーブルのレコードレイアウトの一例を示す説明図である。 本発明の一実施形態に係る音響制御マスタテーブルのレコードレイアウトの一例を示す説明図である。 本発明の一実施形態に係る空調制御マスタテーブルのレコードレイアウトの一例を示す説明図である。 本発明の一実施形態に係る照明制御マスタテーブルのレコードレイアウトの一例を示す説明図である。 本発明の一実施形態に係るシナリオマスタテーブルのレコードレイアウトの一例を示す説明図である。 本発明の一実施形態に係る制御スケジュールテーブルのレコードレイアウトの一例を示す説明図である。 本発明の一実施形態に係るスケジュール設定処理の手順の一例を示すフローチャートである。 本発明の一実施形態に係るスケジュール実行処理の手順の一例を示すフローチャートである。 本発明の一実施形態に係る検索結果保存テーブルのレコードレイアウトの一例を示す説明図である。 本発明の一実施形態に係るスケジュール設定処理の手順の一例を示すフローチャートである。 本発明の一実施形態に係るシナリオ変更処理の手順の一例を示すフローチャートである。 本発明の一実施形態に係るシナリオマスタテーブルのレコードレイアウトの一例を示す説明図である。 本発明の一実施形態に係るスケジュール設定処理の手順の一例を示すフローチャートである。 本発明の一実施形態に係るユーザコンテンツ管理テーブルのレコードレイアウトの一例を示す説明図である。 本発明の一実施形態に係るコンテンツ属性テーブルのレコードレイアウトの一例を示す説明図である。 本発明の一実施形態に係る映像制御マスタテーブルのレコードレイアウトの一例を示す説明図である。 本発明の一実施形態に係る連動シナリオマスタテーブルのレコードレイアウトの一例を示す説明図である。
 実施の形態1
 以下実施の形態を、図面を参照して説明する。図1は本発明の一実施形態に係る空間制御システム10の構成例を示す説明図である。空間制御システム10は、制御装置1、制御情報データベース2、映像出力装置3、音響出力装置4、空気調節装置5、照明器具6を含む。空間制御システム10に含まれる各機器は、ネットワークNにより互い通信可能に接続されている。制御装置1は汎用コンピュータ、ワークステーション、デスクトップ型PC(パーソナルコンピュータ)、ノートブック型PC等である。制御情報データベース2は各種のデータを記憶する。映像出力装置3は映像を出力するものであり、例えば、液晶表示装置、プロジェクタなどを含む。音響出力装置4は音響を出力するものであり、音楽プレイヤ、アンプ、スピーカなどを含む。空気調節装置5は温度や湿度など空気の調節を行うものであり、エアコンディショナー、加湿器、除湿機、匂い発生器などを含む。照明器具6は電球、蛍光灯、LED(Light Emitting Diode)などを含む。なお、空間制御システム10には、テレビジョン受信機のように映像出力装置3と音響出力装置4とが一体となったものを含んでも良い。
 図2は本発明の一実施形態に係る制御装置1のハードウェア構成の一例を示すブロック図である。制御装置1は、CPU(Central Processing Unit)11、RAM(Random Access Memory)12、ROM(Read Only Memory)13、大容量記憶装置14、入力部15、音声入力部16、出力部17、通信部18、計時部19、読み取り部20を含む。各構成はバスBで接続されている。CPU11はROM13に記憶された制御プログラム1P(コンピュータプログラム)に従いハードウェア各部を制御する。RAM12は例えばSRAM(Static RAM)、DRAM(Dynamic RAM)、フラッシュメモリである。RAM12はCPU11による制御プログラム1Pの実行時に発生するデータを一時的に記憶する。大容量記憶装置14は、例えばハードディスク、SSD(Solid State Drive)などである。大容量記憶装置14には、映像データや音声データ等、各種データが記憶されている。また、制御プログラム1Pや制御プログラム1Pの実行時に発生するデータを大容量記憶装置14に記憶するようにしておいても良い。入力部15は制御装置1にデータを入力するためのキーボート、マウスなどを含む。音声入力部16は制御装置1への指示を音声入力するためのマイクなどを含む。出力部17は画像出力を行う表示装置、音声出力を行うスピーカなどを含む。通信部18はネットワークNを介して、他の装置や他のコンピュータと通信を行う。計時部19は時刻の計時や経過時間計測を行う。読み取り部20はCD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROMを含む可搬型記憶媒体1aを読み取る。CPU11が読み取り部20を介して、制御プログラム1Pを可搬型記憶媒体1aより読み取り、大容量記憶装置14に記憶しても良い。また、ネットワークNを介して他のコンピュータからCPU11が制御プログラム1Pをダウンロードし、大容量記憶装置14に記憶しても良い。さらにまた、半導体メモリ1bから、CPU11が制御プログラム1Pを読み込んでも良い。
 次に、制御情報データベース2に記憶している各種データについて、説明する。なお、以下に示す各種データは制御情報データベース2ではなく、大容量記憶装置14など、他の記憶装置に記憶してもよい。図3は本発明の一実施形態に係るシナリオ属性テーブル21のレコードレイアウトの一例を示す説明図である。シナリオ属性テーブル21は、ID(Identification)列、目的・シーン列、概要列、時間帯列、シナリオID列を含む。ID列はレコードを一意に特定するIDを記憶する。目的・シーン列は利用目的や利用場面を記憶する。概要列は利用目的や利用場面の概要を示す説明文を記憶する。時間帯列は設定可能な時間帯の値を記憶する。シナリオID列は、対応するシナリオを特定するIDを記憶する。シナリオについては、後述する。
 図4は本発明の一実施形態に係る映像制御マスタテーブル22のレコードレイアウトの一例を示す説明図である。映像制御マスタテーブル22は、ID列、ソース列、パラメータ列を含む。ID列はレコードを一意に特定するIDを記憶する。ソース列は映像ソースを記憶する。例えば、「file://…」との表記は、映像ソースが大容量記憶装置14に記憶されていることを示す。「local://…」との表記は、映像ソースがローカルネットワーク内のサーバに記憶されていることを示す。「http://…」との表記は、映像ソースがインターネット上のサーバに記憶されていることを示す。パラメータ列は、映像を再生する際の映像出力装置3の設定パラメータを記憶する。設定パラメータは例えば、コントラスト、輝度、色温度、色合い、色の濃さなどである。映像出力装置3は、映像ソースに係る映像を、設定パラメータに沿って表示するので、上記映像ソースおよび設定パラメータは、映像出力装置3の作動態様(出力態様)を決める要素と言える。
 図5は本発明の一実施形態に係る音響制御マスタテーブル23のレコードレイアウトの一例を示す説明図である。音響制御マスタテーブル23はID列、ソース列、パラメータ列を含む。ID列はレコードを一意に特定するIDを記憶する。ソース列は音響ソースである音声ファイルの所在を記憶する。表記形式は上述の映像制御マスタテーブル22と同様である。パラメータ列は、音響ソースを再生する際の音響出力装置4の設定パラメータを記憶する。設定パラメータは例えば、音量、サラウンドのON/OFF、イコライザの設定などである。音響出力装置4は、音響ソースに係る音声を、設定パラメータに沿って出力するので、上記音響ソースおよび設定パラメータは、音響出力装置4の作動態様(出力態様)を決める要素と言える。
 図6は本発明の一実施形態に係る空調制御マスタテーブル24のレコードレイアウトの一例を示す説明図である。空調制御マスタテーブル24はID列、パラメータ列を含む。ID列はレコードを一意に特定するIDを記憶する。パラメータ列は、空気調節装置5の動作パラメータを記憶する。動作パラメータは例えば、室温、湿度、風量などである。空気調節装置5は、動作パラメータに沿って空調するので、動作パラメータは、空気調節装置5の作動態様(出力態様)を決める要素と言える。
 図7は本発明の一実施形態に係る照明制御マスタテーブル25のレコードレイアウトの一例を示す説明図である。照明制御マスタテーブル25はID列、パラメータ列を含む。ID列はレコードを一意に特定するIDを記憶する。パラメータ列は、照明器具6の動作パラメータを記憶する。動作パラメータは例えば、調光レベル、色温度などである。照明器具6は、動作パラメータに沿って照明を調節するので、動作パラメータは、照明器具6の作動態様(出力態様)を決める要素と言える。
 図8は本発明の一実施形態に係るシナリオマスタテーブル26のレコードレイアウトの一例を示す説明図である。シナリオマスタテーブル26は、シナリオID列、映像制御列、音響制御列、空調制御列、照明制御列を含む。シナリオID列はレコードを一意に特定するIDを記憶する。映像制御列は映像制御マスタテーブル22のレコードを特定するIDを記憶する。音響制御列は音響制御マスタテーブル23のレコードを特定するIDを記憶する。空調制御列は空調制御マスタテーブル24のレコードを特定するIDを記憶する。照明制御列は照明制御マスタテーブル25のレコードを特定するIDを記憶する。
 図9は本発明の一実施形態に係る制御スケジュールテーブル27のレコードレイアウトの一例を示す説明図である。制御スケジュールテーブル27はID列、開始日列、開始時刻列、終了時刻列、シナリオID列を含む。ID列は制御スケジュールテーブル27のレコードを特定するIDを記憶する。開始日列は制御を開始する日付等を記憶する。開始日列に月日が記憶されている場合は、該当する一日のみが指定されていると扱う。開始日列に曜日が記憶されている場合は、当該毎曜日が指定されていると扱う。開始日列に休日が記憶されている場合は、日曜、祝祭日が指定されていると扱う。開始日列に日付のみが記憶されている場合、毎月当該日付が指定されていると扱う。なお、指定した日付が存在しない月は無視するか、前後の日付が指定されたと扱う。開始時刻列、終了時刻列には、それぞれ制御を開始する時刻、制御を終了する時刻を記憶する。シナリオIDは制御に用いるシナリオマスタテーブル26のレコードのIDを記憶する。なお、休日に土曜日を含めてもよい。
 次に、制御スケジュールの設定について説明する。図10は本発明の一実施形態に係るスケジュール設定処理の手順の一例を示すフローチャートである。制御装置1のCPU11は目的・シーンを受け付ける(ステップS1)。より具体的には、CPU11は出力部17に目的・シーンを選択させる画面を表示させ、ユーザは表示された目的・シーンから1つを、入力部15を介して選択する。CPU11は開始条件を受け付ける(ステップS2)。上述と同様に、CPU11は出力部17に開始条件を設定する画面を表示させ、ユーザは表示された画面を用いて開始条件を、入力部15を介して設定する。同時に終了条件を設定しても良い。CPU11は受付けた目的・シーン、開始条件より、制御スケジュールを生成し、制御スケジュールテーブル27に記憶し(ステップS3)、処理を終了する。
 例えば、毎週月曜日に6:30に目覚ましを設定した場合、図3に示すシナリオ属性テーブル21において、CPU11は目的・シーンが目覚まし、時間帯が朝であるIDが1のレコードを選択し、用いるシナリオのIDを1と定める。CPU11は、当該レコードに基づき図9に示す制御スケジュールテーブル27のID=2のレコードを生成し、記憶する。
 続いて、スケジュールの実行について説明する。図11は本発明の一実施形態に係るスケジュール実行処理の手順の一例を示すフローチャートである。制御装置1のCPU11は計時部19より現在時刻を取得する(ステップS11)。CPU11は制御スケジュールテーブル27に記憶されている制御スケジュールのうち、開始時刻又は終了時刻に達している制御スケジュールを検索する(ステップS12)。CPU11はヒットしたレコードが開始時刻でヒットしたのか否かを判定する(ステップS13)。CPU11は開始時刻でヒットした判定した場合(ステップS13でYES)、制御スケジュールに含まれるシナリオIDを元に、シナリオマスタテーブル26からシナリオを取得する(ステップS14)。
 CPU11は取得したシナリオに含まれる映像制御IDを元に、映像制御マスタテーブル22より映像制御情報(ソース、パラメータ等)を取得し、取得した映像制御情報を元に、映像出力装置3の制御を行う(ステップS15)。CPU11は取得したシナリオに含まれる音響制御IDを元に、音響制御マスタテーブル23より音響制御情報(ソース、パラメータ等)を取得し、取得した音響制御情報を元に、音響出力装置4の制御を行う(ステップS16)。CPU11は取得したシナリオに含まれる空調制御IDを元に、空調制御マスタテーブル24より空調制御情報(パラメータ等)を取得し、取得した空調制御情報を元に、空気調節装置5の制御を行う(ステップS17)。CPU11は取得したシナリオに含まれる照明制御IDを元に、照明制御マスタテーブル25より照明制御情報(パラメータ等)を取得し、取得した照明制御情報を元に、照明器具6の制御を行う(ステップS18)。CPU11は処理を終了する。なお、ステップS15からステップS18の実行順は、これに限らない。シナリオの内容に応じて変えても良い。また、スケジュール実行処理は、計時部19により実現されるインターバルタイマの割り込みなどにより、繰り返し実行される。
 一方、CPU11は開始時刻でヒットしていないと判定した場合(ステップS13でNO)、ヒットしたレコードが終了時刻でヒットしたのか否かを判定する(ステップS19)。CPU11は終了時刻でヒットした判定した場合(ステップS19でYES)、映像出力装置3の制御を停止させ(ステップS20)、音響出力装置4の制御を停止させ(ステップS21)、空気調節装置5の制御を停止させ(ステップS22)、照明器具6の制御を停止させ(ステップS23)、処理を終了する。CPU11は終了時刻でヒットしていないと判定した場合(ステップS19でNO)も処理を終了する。なお、上述の説明においては、制御スケジュールの検索について、時刻のみに言及した。しかし、制御スケジュールテーブル27の開始日欄の内容によっては、日付、曜日なども用いて検索を行うことは言うまでもないことであろう。
 実施の形態1の制御装置1は以下の効果を奏する。ユーザは目的・シーンと起動時刻を指定するだけで、所望の時間において目的・シーンに適合した環境を室内に作り出すことが可能となる。
 実施の形態2
 実施の形態2は、ユーザの希望に応じてシナリオを作成又は変更する形態に関する。なお、以下の説明において、実施の形態1と同様な部分については説明を省略し、実施の形態1と異なる部分を主として説明する。
 実施の形態2において、ユーザは音声入力部16を用いて、体験したい環境を制御装置1に指示することが可能である。実施の形態2においては、例えば、「ハワイのビーチにいる気分を味わいたい。」という内容が指示されたものとする。
 実施の形態2において使用されるテーブルについて説明する。図12は本発明の一実施形態に係る検索結果保存テーブル28のレコードレイアウトの一例を示す説明図である。検索結果保存テーブル28は、制御情報データベース2に記憶される。または、制御装置1の大容量記憶装置14に記憶してもよい。検索結果保存テーブル28は、検索エンジンを用いて検索結果を記憶したものである。図12に示す例では、インターネットの検索エンジンを用いて動画を検索した場合の結果を保存している。検索結果保存テーブル28は、ID列、キーワード列、ランク列、ソース列、属性列、評価列を含む。ID列は検索結果保存テーブル28のレコードを一意に特定するIDを記憶する。キーワード列は検索の際に用いたキーワードを記憶する。なお、ここでは検索対象を動画としているため、検索キーワードに動画を含めているが、キーワード列には記憶していない。ランク列は検索結果として表示された順番を記憶する。ソース列は検索にヒットした動画のソースを記憶する。ソースとは動画の所在を示すものであり、例えばURL(Uniform Resource Locator)である。属性列は動画の内容に関する説明や、動画に付与されているメタタグなどを記憶する。評価列は動画に対する評価を記憶する。図12に示す例では、ランクで示す順位が高いほど、高い評価としてある。
 実施の形態2における制御装置1の動作について説明する。図13は本発明の一実施形態に係るスケジュール設定処理の手順の一例を示すフローチャートである。制御装置1のCPU11は、ユーザから体験したい環境の内容を受け付ける(ステップS31)。CPU11は引き続き、開始条件を受け付ける(ステップS32)。例えば、ユーザが体験したい環境下で目覚めることを希望する場合には、目覚ましの時刻を開始時刻として受け付ける。
 CPU11は音声で入力されたユーザの要望の内容を公知の音声認識技術により認識し、さらに構文解析技術などにより検索キーワードを抽出する(ステップS33)。CPU11は抽出した検索キーワードを用いて検索を行う(ステップS34)。
 CPU11は検索結果を検索結果保存テーブル28に記憶する(ステップS35)。この際、CPU11は、検索キーワード、表示順に従ったランク値、及びランク値より求めた評価値を記憶する。評価値は、例えば、記憶するレコード数の最大値を定めておき、その値を評価値の最大値として、ランクが1位のものにその値を付与し、ランクが最下位のものに評価値1を与える。また、属性と記憶する説明などに検索キーワードが何回出現するかにより、評価値を定めても良い。CPU11はステップS34の検索結果として得たランク1位の動画が再生されるシナリオを作成し、シナリオマスタテーブル26に記憶する(ステップS36)。具体的には、CPU11は上述の動画を再生する映像制御情報を作成し、映像制御マスタテーブル22に記憶する。パラメータは適宜、設定される。CPU11は音響制御情報、空調制御情報、照明制御情報をそれぞれ作成し、音響制御マスタテーブル23、空調制御マスタテーブル24、照明制御マスタテーブル25に記憶する。これらの結果に基づいて、CPU11はシナリオを作成する。なお、各情報に含まれるパラメータは予め定めた初期値であっても良い。また、作り出す環境に関して気候データ(気温、湿度、日照時間等)が得られる場合には、CPU11はそれらに基づいて空調制御や照明制御のパラメータを設定しても良い。図13に示した処理において、シナリオが実行されるまでに時間の猶予がある場合、CPU11はステップS33からステップS36(又はステップS37)の処理を、バックグラウンドで実行したり、処理が少ない夜間に実行したりしても良い。CPU11はステップS32で受け付けた開始条件が満たされた時に、シナリオを実行するスケジュールを作成し、制御スケジュールテーブル27に記憶し(ステップS37)、処理を終了する。
 次にスケジュール設定処理について、図示したデータ等を用いて、再度説明する。制御装置1のCPU11は、音声入力部16を介して、ユーザより「ハワイのビーチにいる気分を味わいたい。」という音声入力を受け付ける(ステップS31)。そして、CPU11は音声入力部16を介して、開始条件として、朝の6:30を開始時刻として受付ける(ステップS32)。制御装置1のCPU11は音声認識、構文解析により、検索キーワードとして、「ハワイ」、「ビーチ」を抽出する(ステップS33)。CPU11はこれらに「動画」というキーワードを付加し、検索エンジンを用いて、インターネット検索を行う(ステップS34)。CPU11は検索結果を検索結果保存テーブル28に記憶する(ステップS35)。図12に示した例では、検索結果の上位5つが記憶されている。そのため、ランク1位のものが評価値5であり、ランク5位のものが評価値1となっている。CPU11は、ランク1位の動画再生される映像制御情報等を生成し、映像制御マスタテーブル22等に記憶する。CPU11は生成した映像制御情報等よりシナリオを作成し、シナリオマスタテーブル26に記憶する(ステップS36)。CPU11は記憶したシナリオが朝の6:30に起動する制御スケジュールを作成し、制御スケジュールテーブル27に記憶し(ステップS37)、処理を終了する。
 次に、シナリオの変更について説明する。制御装置1は上述のようにユーザの希望に応じてシナリオを作成し実行を行うが、内容がユーザの希望にそぐわない場合もあり得る。そのような場合、ユーザからの入力により、シナリオの変更を行う。なお、以下の説明においては、変更が求められているのは、映像出力装置3により出力されている映像であるとする。
 図14は本発明の一実施形態に係るシナリオ変更処理の手順の一例を示すフローチャートである。シナリオ変更処理は、入力部15又は音声入力部16がユーザから指示内容の入力を受けた場合に起動される。制御装置1のCPU11は入力部15を介して受け付けたユーザの指示内容を分析する(ステップS41)。ユーザが音声入力部16を介して音声入力により行った場合、CPU11は公知の技術を用いて、音声認識、構文解析を行う。ユーザが入力部15を介してキーボードやマウスでコマンドを入力した場合、CPU11は分析を行わない。CPU11は分析結果、ユーザの指示がシナリオの変更であるか否かを判定する(ステップS42)。ユーザが音声入力により行った場合、CPU11は構文解析の結果から、公知技術である意味解析を行い、ユーザがシナリオの変更を求めているか否かを判定する。ユーザがキーボードやマウスでコマンドを入力した場合、入力されたコマンドがシナリオ変更コマンドであるか否かを判定する。
 CPU11は、シナリオ変更であると判定した場合(ステップS42でYES)、検索結果保存テーブル28より、出力されている映像データの次点のデータを取得する(ステップS43)。すなわち、次点のデータとは、検索結果を評価値順に並べた場合、出力されている映像データの次の順位のデータのことである。なお、実行しているシナリオと検索結果保存テーブル28のレコードとの関連付けはされているものとする。例えば、シナリオマスタテーブル26に検索結果保存テーブル28のレコードIDが記憶されていれば良い。CPU11は制御の切り替えを行う(ステップS44)。すなわち、映像出力装置3から出力されている映像データをステップS43で取得した次点データに切り替える。CPU11は、切り替え前の映像データの評価値を更新する(ステップS45)。具体的には、検索結果保存テーブル28に記憶されている該当レコードの評価値から所定の値を引いたり、0としたり、マイナスの値にしたりする。または、評価値を更新するのではなく、該当レコードを削除してもよい。CPU11はシナリオを更新し(ステップS46)、処理を終了する。すなわち、該当するシナリオに対応し、映像制御マスタテーブル22に記憶されている映像制御情報に含まれるソースの値を書き換える。CPU11はユーザからの指示がシナリオの変更ではないと判定した場合(ステップS42でNO)、処理を終了する。
 実施の形態2においては、以下の様な効果を奏する。制御装置1は、音声による指示入力を受け付けるので、ユーザは容易に制御装置1に指示を行うことが可能となる。また、ユーザがシナリオの内容、例えば出力されている映像が希望にそぐわない旨を入力した場合、制御装置1は出力内容を変更するとともにシナリオの更新も行う。それにより、シナリオはユーザの嗜好に合うように更新され、ユーザの満足度を向上することが可能となる。
 実施の形態3
 実施の形態3は地理情報によりコンテンツを選択する形態に関する。以下の説明において、実施の形態1と同様な部分については説明を省略し、実施の形態1と異なる部分を主として説明する。図15は本発明の一実施形態に係るシナリオマスタテーブル26のレコードレイアウトの一例を示す説明図である。シナリオマスタテーブル26は、ID列、目的・シーン列、場所列、地理座標列、動画ソース列、パラメータ列を含む。ID列はシナリオマスタテーブル26のレコードを一意に特定するIDを記憶する。目的・シーン列は利用目的や利用場面を記憶する。地名列は場所を示す地名を記憶する。地理座標列は場所を示す地理座標、例えば緯度、経度を記憶する。動画ソース列は動画のソース、例えばソースファイル名を記憶する。パラメータ列は、映像出力装置3、音響出力装置4、空気調節装置5、照明器具6を制御するためのパラメータを記憶する。実施の形態3ではシナリオマスタテーブル26のみで、映像出力装置3、音響出力装置4、空気調節装置5、照明器具6の制御が可能としてある。制御スケジュールテーブル27は実施の形態1と同様である。
 実施の形態3において、制御装置1はタブレットコンピュータ、スマートフォン、携帯電話などの携帯が容易なものを想定している。また。制御装置1はGPS(Global Positioning System)受信機などの現在地の地理座標が取得可能であるものとする。
 次に制御装置1が行う処理について説明する。図16は本発明の一実施形態に係るスケジュール設定処理の手順の一例を示すフローチャートである。制御装置1のCPU11はGPS受信機などにより現在地の位置計測を行う(ステップS51)。CPU11は位置計測で得た位置情報(例えば、緯経度)により、シナリオマスタテーブル26のレコードをフィルタリングする(ステップS52)。すなわち、取得した位置情報とシナリオマスタテーブル26の各レコードの地理座標とを対比し、現在地又は現在地に近い場所と対応付けられているレコードのみを処理対象とする。CPU11は出力部17にシナリオを一覧表示させる(ステップS53)。CPU11は入力部15を介して、ユーザが選択した目的・シーンを受け付ける(ステップS54)。CPU11は入力部15を介して、シナリオの開始条件を受け付ける(ステップS55)。CPU11は制御スケジュールを生成し、制御スケジュールテーブル27に記憶する(ステップS56)。
 実施の形態3は以下の効果を奏する。位置情報によりシナリオをフィルタリングするので、ユーザの滞在する場所にあわせたシナリオを実行することが可能となる。
 本実施形態では、スケジュール設定時にフィルタリングすることにより、位置に応じたシナリオを実行可能としたが、それに限らない。スケジュール実行時にシナリオを変更しても良い。例えば、東京で設定された目覚ましのシナリオを、ニューヨークで実行する場合、CPU11はスケジュール実行前にシナリオの地理座標を調べる。シナリオの地理座標が現在地の座標から大きく離れている場所を示しているときは、目的・シーンが同一で、地理座標が現在と近い位置を示すシナリオに入れ替えて、スケジュールを実行すればよい。
 実施の形態4
 実施の形態4はユーザ所有の画像またはユーザがSNS(Social Networking Service)等に投稿した画像を活用する形態に関する。以下の説明において、実施の形態1と同様な部分については説明を省略し、実施の形態1と異なる部分を主として説明する。
 図17は本発明の一実施形態に係るユーザコンテンツ管理テーブル29のレコードレイアウトの一例を示す説明図である。ユーザコンテンツ管理テーブル29は制御情報データベース2に記憶されている。ユーザコンテンツ管理テーブル29は、ID列、ファイル名列、種別列、撮影日時列、作成日時列、緯度列、経度列を含む。ID列はユーザコンテンツ管理テーブル29のレコードを一意に特定するIDを記憶する。ファイル名列は画像ファイル名を記憶する。画像ファイル名列には所在を示すパス名や、URLを構成する文字列が含まれていても良い。種別列は画像ファイル名の記憶場所に基づく種別を記憶する。例えば、画像ファイルが制御装置1の大容量記憶装置14に記憶されている場合には、ローカルを記憶する。SNSを提供するサーバに記憶されている場合には、SNSを記憶する。撮影日時列は、画像がデジタルカメラ等で撮影された場合に付与された撮影日時を記憶する。作成日時列は画像ファイルが作成された日時を記憶する。経度列は、画像がGPS内蔵のデジタルカメラやスマートフォン等で撮影された場合に付与される撮影地の経度を記憶する。緯度列は、画像がGPS内蔵のデジタルカメラ等で撮影された場合に付与された撮影地の緯度を記憶する。撮影日時、緯度、経度は、例えば、Exif(Exchangeable image file format)情報から取得する。
 制御装置1のCPU11は、夜間バッチ処理などによりユーザコンテンツ管理テーブル29を作成・更新する。CPU11は大容量記憶装置14に記憶されている画像ファイルを検索するともに、ユーザが利用しているSNSや、写真保管サービスのサーバにもアクセスし、画像ファイルを検索する。CPU11は、検索結果として得た画像ファイル(以下、「ユーザ画像」という)の情報をユーザコンテンツ管理テーブル29に記憶する。なお、SNSや写真共有サービスにアクセスするためのIDやパスワードは、大容量記憶装置14などに予め記憶されているものとする。
 CPU11は映像制御情報に基づき、映像出力装置3に映像出力を行わせる場合に、ユーザコンテンツ管理テーブル29に記憶された情報を送信し、出力映像にユーザ画像を重畳して表示させる。表示させるユーザ画像は、例えば、次のように選択する。撮影日時又は作成日時が過去2週間以内といった直近のユーザ画像を選択し表示させる。撮影時間や作成時間が現在時刻に近いもの、例えば、朝であれば、朝に撮影されたユーザ画像を選択し表示させる。また、制御装置1がスマートフォンなどのようにGPS機能を備えている場合には、GPSにより取得した現在位置情報に基づいて、現在位置に近い場所で撮影されたユーザ画像を選択して表示する。さらにまた、シナリオ又は映像情報に位置情報が付与されている場合には、当該位置情報に係る位置に近い場所で撮影されたユーザ画像を選択して表示する。例えば、ハワイのビーチの映像を出力する場合に、ハワイで撮影されたユーザ画像を重畳して出力する。なお、選択した画像が多数の場合は、いわゆるスライドショーのように所定時間毎に重畳するユーザ画像を切り替えれば良い。
 実施の形態4は以下の様な効果を奏する。映像出力装置3が出力する映像にユーザ画像を重畳させることにより、ユーザ画像の有効活用が可能となる。それにより、ユーザは出力されている映像に共感や親近感を覚え、ユーザ満足度の向上が期待される。
 上述では、ユーザ画像を映像出力に重畳させるとしたが、それに限らない。映像出力としてユーザ画像を表示するシナリオを作成してもよい。また、ユーザ画像は写真画像であることを念頭に説明したが、動画でも良い。さらにまた、画像ではなく音声データを収集し、それらを音響出力装置4から出力してもよい。例えば、音楽再生ソフトなどの情報から再生回数が多い曲をBGM(background music)として出力する。
 なお、ユーザコンテンツ管理テーブル29は制御情報データベース2に記憶されているとしたが、それに限らず制御装置1の大容量記憶装置14に記憶しても良い。さらにまた、映像出力装置3に記憶してもよい。
 実施の形態5
 実施の形態5はユーザの履歴を活用する形態である。ここでいう履歴とは、Webサイトの閲覧履歴や、インターネット検索エンジンの検索履歴、動画共有サービスの視聴履歴などである。以下の説明において、実施の形態1と同様な部分については説明を省略し、実施の形態1と異なる部分を主として説明する。
 図18は本発明の一実施形態に係るコンテンツ属性テーブル2aのレコードレイアウトの一例を示す説明図である。ここで、コンテンツとは動画、静止画、音声などである。コンテンツ属性テーブル2aは、ID列、ソース列、形式列、撮影日時列、作成日時列、緯度列、経度列、評価列を含む。ID列はコンテンツ属性テーブル2aのレコードを一意に特定するIDを記憶する。ソース列はコンテンツの所在場所を示すパス名やURLを記憶する。形式列はコンテンツの形式を記憶する。形式は、例えば、動画、静止画、音声などである。撮影日時列は、動画や静止画が撮影された日時を記憶する。音声の場合に収録日時が取得可能な場合は、収録日時を記憶してもよい。コンテンツが作成された日時を記憶する。作成日時と撮影又は収録日時が同一の場合は、同一の日時を記憶してもよい。緯度列、経度列は、動画、静止画が撮影された場所の緯度、経度をそれぞれ記憶する。評価列は履歴に基づき定めた評価値を記憶する。
 制御装置1のCPU11は、夜間バッチ処理などによりコンテンツ属性テーブル2aを作成・更新する。CPU11は大容量記憶装置14などに記憶されているユーザのWebサイトの閲覧履歴を取得する。CPU11は、取得した閲覧履歴からユーザがアクセスしたコンテンツ(動画データ、静止画データ、音声データ)の属性情報を収集し、RAM12などの一時記憶領域に記憶する。閲覧履歴から十分な情報が得られない場合、CPU11はWebサイトにアクセスし、属性情報を取得する。また、CPU11はWebサイトのアクセス回数からコンテンツの評価を行い、評価値を定める。例えば、アクセス回数が多いほど、高い評価値とする。なお、インターネット検索エンジンの検索履歴、動画共有サービスの視聴履歴についても、ユーザがアクセスしたコンテンツ(動画データ、静止画データ、音声データ)を特定し、その属性情報を収集するのに用いる。
 CPU11はシナリオに基づき、映像出力装置3に映像を出力させる場合に、シナリオで指定されている動画に差し替えて、評価値の高い動画を出力する。また、出力する動画に評価値の高い静止画を重畳させる。一方、音響出力装置4に音声を出力させる場合に、シナリオで指定されている音声に差し替えて、評価値の高い音声を出力する。
 実施の形態5は以下の様な効果を奏する。ユーザの各種履歴を用いることにより、ユーザの趣味趣向にあったコンテンツの出力が可能となる。それにより、ユーザ満足度の向上が期待される。
 実施の形態6
 実施の形態6は休日には、平日とは異なる映像を出力する形態である。以下の説明において、実施の形態1と同様な部分については説明を省略し、実施の形態1と異なる部分を主として説明する。
 図19は本発明の一実施形態に係る実施の形態6に係る映像制御マスタテーブル22のレコードレイアウトの一例を示す説明図である。映像制御マスタテーブル22は、ID列、休日列、ソース列、パラメータ列を含む。ID列、ソース列、パラメータ列については、実施の形態1と同様であるので説明を省略する。休日列は制御(スケジュール)の実行日が休日か否かで切り替えるためのフラグを記憶する。例えば、休日列の値が0のレコードは平日に用い、休日列の値が1のレコードは休日に用いる。ここで、休日は、土曜日、日曜日、祝日とするが、それに限らない。休日は日曜日又は祝日とし、土曜日を含めなくても良い。
 図19に示す例において、ID=1のレコードは、平日と休日とでは映像のソースを切り替えることを示している。ID=2のレコードは、平日と休日とでは制御のパラメータが異なるが、映像のソースは同じもの用いることを示している。ID=3のレコードは、平日、休日に関わらず同一のソースを用いることを示している。
 実施の形態6において、CPU11は映像制御マスタテーブル22から読み込むレコードを特定する際には、ID及び休日の値を指定する。CPU11は、計時部19よりカレンダー情報を取得し、実行日が平日であるか休日であるかを判定する。
 本実施形態においては、制御の実行日が平日か休日であるかにより、映像出力装置3より出力する映像ソースを切り替える例を示したが、それに限らない。音響出力装置4、空気調節装置5、照明器具6に対する制御についても、平日と休日とで内容を変更してもよい。
 実施の形態6は以下の様な効果を奏する。制御装置1は、制御の実行日が平日であるか休日であるかにより制御内容を切り替えるので、制御内容の違いによりユーザに平日であるか、休日であるかを伝えることが可能となる。
 実施の形態7
 実施の形態7はスケジューラとの連動を行う形態である。ここでは、スケジューラに記憶されているスケジュール情報を元に、シナリオを実行する形態について説明する。以下の説明において、実施の形態1と同様な部分については説明を省略し、実施の形態1と異なる部分を主として説明する。
 図20は本発明の一実施形態に係る連動シナリオマスタテーブル2bのレコードレイアウトの一例を示す説明図である。連動シナリオマスタテーブル2bはID列、スケジュール列、動画ソース列、パラメータ列を含む。ID列は連動シナリオマスタテーブル2bのレコードを一意に特定するIDを記憶する。スケジュール列は、連動させるスケジュールを記憶する。動画ソース列は動画の所在を示す、例えばURLを記憶する。パラメータ列は、映像出力装置3などの制御パラメータを記憶する。
 制御装置1のCPU11は、夜間バッチ処理などにより、スケジューラからユーザのスケジュールを読み込む。CPU11はスケジュールの内容と連動シナリオマスタテーブル2bのスケジュール列とのマッチングを行う。CPU11はマッチするスケジュールがあると判定した場合、制御スケジュールテーブル27に制御スケジュールを記憶する。例えば、スケジュールに、4/1 18:00 長男:誕生日会が記憶されているとする。この場合、CPU11は、連動シナリオマスタテーブル2bに記憶されたID=2のシナリオを、4/1の18:00に実行する制御スケジュールを生成し、制御スケジュールテーブル27に記憶する。それにより、ユーザが設定しなくても、誕生会のときに、誕生日にふさわしい動画を映像出力装置3から出力させることが可能となる。
 実施の形態7は以下の様な効果を奏する。制御装置1は、スケジューラと連動して、制御スケジュールを自動的に生成するので、ユーザが設定しなくても、スケジュールに適した環境を提供することが可能となる。
 実施の形態7においては、個人のスケジューラとの連動を念頭に置いた制御について説明しているが、それに限らない。複数人が共用するスケジューラと連動してもよい。例えば、会議室の予約表と連動させる場合は、参加者、会議の内容、予約者の所属部署等などから、制御内容を決定する。それによりに、会議のスムーズな進行に寄与する環境を会議室に構築することが可能となる。
 なお、上述の説明においては、制御装置1からの映像出力装置3、音響出力装置4、空気調節装置5、照明器具6への制御コマンドの送信は、ネットワークNを介していることとしたが、それに限らない。赤外線を用いたリモコン信号により行っても良い。
 また、制御装置1をタブレットコンピュータやスマートフォンなどの容易に移動可能なコンピュータで構成してもよい。さらに、制御装置1をロボット、プロジェクタ、オーディオ機器といった装置に組み込んでも良い。さらに、映像出力装置3や音響出力装置4など、五感の少なくとも1つに変化を与える事象を生じさせる装置を制御装置1と一体化しても良い。
 各実施例で記載されている技術的特徴(構成要件)はお互いに組み合わせ可能であり、組み合わせすることにより、新しい技術的特徴を形成することができる。
 今回開示された実施の形態はすべての点で例示であって、制限的なものでは無いと考えられるべきである。本発明の範囲は、上記した意味では無く、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
 10 空間制御システム
 1  制御装置
 2  制御情報データベース
 3  映像出力装置
 4  音響出力装置
 5  空気調節装置
 6  照明器具
 N  ネットワーク

Claims (4)

  1.  各々が異なる種類の出力を行う複数の出力装置を所定の利用目的に沿って作動させるタイミングを示す時間情報及び前記所定の利用目的を含む目的情報を取得する取得部と、
     前記時間情報及び前記所定の利用目的の双方に応じた前記複数の出力装置の各々の作動態様に関する制御情報、前記時間情報、及び前記利用目的を対応付けた記憶部から、前記取得した、時間情報及び利用目的に応じた制御情報を読み出す読み出し部と、
     前記読み出した制御情報に基づく制御コマンドを、前記複数の出力装置に出力する出力部と
     を備えることを特徴とする制御装置。
  2.  位置情報を取得する位置情報取得部をさらに備え、
     前記読み出し部は、前記取得した位置情報に適合した制御情報を読み出す
     ことを特徴とする請求項1に記載の制御装置。
  3.  前記複数の出力装置の1つは、映像を投影する映像出力装置であり、
     画像を記憶する記憶部から画像を取得する画像取得部と、
     前記取得した画像及び前記制御情報に係る画像を合成した合成画像を出力する合成部とをさらに備え、
     前記出力部は前記合成画像の表示を指示する制御コマンドを前記映像出力装置他に出力する
     ことを特徴とする請求項1に記載の制御装置。
  4.  コンピュータに、
     各々が異なる種類の出力を行う複数の出力装置を所定の利用目的に沿って作動させるタイミングを示す時間情報及び前記所定の利用目的を含む目的情報を取得し、
     前記時間情報および前記所定の利用目的の双方に応じた前記複数の出力装置の各々の作動態様に関する制御情報、前記時間情報、および前記利用目的を対応付けた記憶部から、前記取得した、時間情報および利用目的に応じた制御情報を読み出し、
     前記読み出した制御情報に基づく制御コマンドを、前記複数の出力装置に出力する処理を実行させることを特徴とするコンピュータプログラム。
PCT/JP2015/076969 2015-09-24 2015-09-24 制御装置及びコンピュータプログラム WO2017051462A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2015/076969 WO2017051462A1 (ja) 2015-09-24 2015-09-24 制御装置及びコンピュータプログラム
JP2017541201A JPWO2017051462A1 (ja) 2015-09-24 2015-09-24 制御装置及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/076969 WO2017051462A1 (ja) 2015-09-24 2015-09-24 制御装置及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
WO2017051462A1 true WO2017051462A1 (ja) 2017-03-30

Family

ID=58386434

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/076969 WO2017051462A1 (ja) 2015-09-24 2015-09-24 制御装置及びコンピュータプログラム

Country Status (2)

Country Link
JP (1) JPWO2017051462A1 (ja)
WO (1) WO2017051462A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05187684A (ja) * 1992-01-10 1993-07-27 Hitachi Ltd 居室環境の制御システム、疑似体験システムおよびそれに用いる記録媒体
JP2005098043A (ja) * 2003-08-21 2005-04-14 Misawa Homes Co Ltd 居室環境演出装置
JP2005135196A (ja) * 2003-10-30 2005-05-26 Nippon Telegr & Teleph Corp <Ntt> 環境情報通信システム、環境情報収集装置および環境情報出力装置
JP2005332272A (ja) * 2004-05-20 2005-12-02 Kajima Corp ビルの管理システムおよび管理方法
JP2007053560A (ja) * 2005-08-17 2007-03-01 Sony Corp 空間演出方法および装置
WO2014006876A1 (ja) * 2012-07-05 2014-01-09 パナソニック株式会社 空調制御装置、および空調システム
WO2015114810A1 (ja) * 2014-01-31 2015-08-06 三菱電機株式会社 電気機器管理装置、電気機器管理システム、電気機器、端末装置及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05187684A (ja) * 1992-01-10 1993-07-27 Hitachi Ltd 居室環境の制御システム、疑似体験システムおよびそれに用いる記録媒体
JP2005098043A (ja) * 2003-08-21 2005-04-14 Misawa Homes Co Ltd 居室環境演出装置
JP2005135196A (ja) * 2003-10-30 2005-05-26 Nippon Telegr & Teleph Corp <Ntt> 環境情報通信システム、環境情報収集装置および環境情報出力装置
JP2005332272A (ja) * 2004-05-20 2005-12-02 Kajima Corp ビルの管理システムおよび管理方法
JP2007053560A (ja) * 2005-08-17 2007-03-01 Sony Corp 空間演出方法および装置
WO2014006876A1 (ja) * 2012-07-05 2014-01-09 パナソニック株式会社 空調制御装置、および空調システム
WO2015114810A1 (ja) * 2014-01-31 2015-08-06 三菱電機株式会社 電気機器管理装置、電気機器管理システム、電気機器、端末装置及びプログラム

Also Published As

Publication number Publication date
JPWO2017051462A1 (ja) 2018-07-12

Similar Documents

Publication Publication Date Title
JP5267062B2 (ja) 情報処理装置、情報処理方法、コンテンツ視聴装置、コンテンツ表示方法、プログラム及び情報共有システム
US10365797B2 (en) Group membership content presentation and augmentation system and method
US20120102431A1 (en) Digital media frame providing customized content
CN112088370A (zh) 数字资产搜索用户界面
JP2007504546A (ja) 移動局に保管される映像に命名する方法と装置
WO2006106596A1 (ja) コンテンツ再生装置およびコンテンツ再生方法
US8949238B2 (en) Information processing device, method, and computer program product
US9215285B2 (en) Multi-point social media geotracker
US20180075067A1 (en) Method of Facilitating Browsing and Management of Multimedia Files with Data Structure thereof
US10275915B2 (en) Method and system for visualization of position data
JP2005346440A (ja) メタデータ付与支援システム、制御装置、及び、メタデータ付与支援方法
JP2006164229A (ja) 情報再生装置及びその制御方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
US20100257030A1 (en) Method and system for conducting a contest
JP2009289244A (ja) 音楽再生端末、および位置対応リスト作成システム
US20200381005A1 (en) Music Selections for Personal Media Compositions
EP2797011A1 (en) Method of and apparatus for providing access to content in a database based on environment-derived contextual information
WO2017051462A1 (ja) 制御装置及びコンピュータプログラム
US20170076407A1 (en) Location-based data structure information retrieval and modification
JP4104569B2 (ja) 情報サービスシステムおよび放送受信システム
JP3901973B2 (ja) リモコン、番組選択方法および放送受信システム
JP2005328219A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US20140310280A1 (en) System and method for discovery, grouping and sharing of media content
US20170208358A1 (en) Device for and method of tv streaming and downloading for personal photos and videos presentation on tv that seamlessly integrates with mobile application and cloud media server
TWI558188B (zh) Personalized Program List Generation Method and System
JP4311692B2 (ja) 楽曲データ再生システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15904719

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017541201

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15904719

Country of ref document: EP

Kind code of ref document: A1