WO2017030013A1 - 制御装置、制御方法及び制御システム - Google Patents

制御装置、制御方法及び制御システム Download PDF

Info

Publication number
WO2017030013A1
WO2017030013A1 PCT/JP2016/073059 JP2016073059W WO2017030013A1 WO 2017030013 A1 WO2017030013 A1 WO 2017030013A1 JP 2016073059 W JP2016073059 W JP 2016073059W WO 2017030013 A1 WO2017030013 A1 WO 2017030013A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
display
displayed
designation
Prior art date
Application number
PCT/JP2016/073059
Other languages
English (en)
French (fr)
Inventor
虫壁和也
須山明彦
塚田啓介
加藤慎一朗
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Publication of WO2017030013A1 publication Critical patent/WO2017030013A1/ja
Priority to US15/898,276 priority Critical patent/US10642235B2/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • G05B15/02Systems controlled by a computer electric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/22Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks comprising specially adapted graphical user interfaces [GUI]

Definitions

  • the present invention relates to a control apparatus, a control method, and a control system for a plurality of external devices connected to a network and transmitting or receiving content data.
  • Patent Document 1 discloses an audio distribution system.
  • audio data stream-distributed from a server device to a network can be reproduced in synchronization with a plurality of client devices.
  • the user can listen to the same audio data in any room.
  • each client device is set apart. For this reason, if each client device is centrally managed by a portable terminal owned by the user, for example, the user can operate each client device with the portable terminal at hand. And the user does not need to move to the installation place of each client apparatus.
  • centralized management with mobile terminals when the number of client devices increases, information on many client devices is displayed on the mobile terminals. For this reason, the user may not be able to grasp which client device the displayed information relates to. In this case, the user cannot easily access the information of the client device, and there is a possibility that the management and operation of each client device will be troublesome.
  • an object of the present invention is to provide a control device, a control method, and a control system that make it easy to visually grasp a plurality of external devices to be controlled.
  • the control device of the present invention includes a connection unit, a control unit, a display control unit, an operation unit, a designation unit, and an image change unit.
  • the connection unit connects to the network.
  • the control unit controls a plurality of external devices that transmit or receive content data via the network.
  • the display control unit displays an image related to the external device on the display unit for each of the plurality of external devices.
  • the operation unit receives an operation for selecting an image displayed on the display unit.
  • the designation unit designates an image to be displayed on the display unit.
  • the image changing unit changes the image selected from the operation unit to the image designated by the designation unit.
  • the user can change the image related to the external device displayed on the display unit.
  • the user can easily visually understand the type, installation location, owner, and the like of the external devices.
  • the user can visually grasp each external device controlled from the control device.
  • FIG. 1 is a diagram illustrating a configuration of an audio reproduction system according to the first embodiment.
  • FIG. 2 is a diagram illustrating a controller screen displayed on the display.
  • 3A and 3B are diagrams for explaining a method for customizing the controller screen.
  • FIG. 4A and FIG. 4B are diagrams for explaining a method for customizing the controller screen.
  • FIG. 5 is a diagram illustrating an example of image processing performed on the image to be displayed after the change.
  • FIG. 6 is a diagram for explaining a method of setting a parent device from grouped devices.
  • FIGS. 7A and 7B are diagrams illustrating a controller screen in which a plurality of button images are collected.
  • FIG. 8 is a block diagram showing the configuration of the communication terminal.
  • FIG. 1 is a diagram illustrating a configuration of an audio reproduction system according to the first embodiment.
  • FIG. 2 is a diagram illustrating a controller screen displayed on the display.
  • 3A and 3B are diagrams for explaining a method for custom
  • FIG. 9 is a flowchart showing processing executed by the communication terminal.
  • FIG. 10 is a diagram illustrating a controller screen displayed on the display according to the second embodiment.
  • FIG. 11 is a diagram illustrating an example of a controller screen on which a button image is reduced and displayed.
  • FIG. 1 is a diagram illustrating a configuration of an audio reproduction system 10 according to the first embodiment.
  • the audio reproduction system 10 is an example of the “control system” according to the present invention.
  • the audio reproduction system 10 includes an AV receiver 11, a micro component system 12, a speaker 13, a player 14, a server 15, and the like. These are connected to the network 100.
  • the network 100 is, for example, a LAN (Local Area Network) wired in a building.
  • Each device such as the AV receiver 11 connected to the network 100 is arranged in a plurality of rooms such as a living room or a bedroom in the building.
  • the AV receiver 11 is connected to a recording medium 111, a television 112, a network speaker 113, and the like by wire or wireless.
  • the recording medium 111 is, for example, a flash memory or a hard disk drive.
  • the AV receiver 11 transmits music data or video data stored in the recording medium 111 to the television 112 and the network speaker 113, and the television 112 and the network speaker 113 reproduce the data.
  • the server 15 is a network storage such as NAS (Network Attached Storage).
  • the AV receiver 11, the micro component system 12, the speaker 13, and the player 14 reproduce music data.
  • the music data to be played back may be data stored in the memory of each device, or may be data read from a recording medium connected to each device, such as a CD or HDD.
  • each device can transmit and receive music data, and can acquire music data from other devices.
  • the AV receiver 11 can acquire music data stored in the server 15 and reproduce the music data from the television 112 or the network speaker 113.
  • the AV receiver 11, the micro component system 12, the speaker 13, the player 14, and the server 15 connected to the network 100 are examples of the “external device” according to the present invention.
  • the music data is an example of “content data” according to the present invention.
  • the “content data” according to the present invention may be video data.
  • the communication terminal 20 is connected to the network 100 by wireless or wired.
  • the communication terminal 20 receives an operation from the user, transmits the user's operation to each device via the network 100, and controls each device.
  • the communication terminal 20 is an example of the “control device” according to the present invention.
  • the communication terminal 20 has a display 21. On the display 21, an operation screen for operating the AV receiver 11, the micro component system 12, the speaker 13, and the player 14 is displayed. From the operation screen, the user can perform, for example, power on / off operation of the device, volume adjustment operation, song selection, performance, skip operation, and the like.
  • the communication terminal 20 may be any device that can display a display screen by connecting to a device having the display 21 such as a smartphone, a tablet, or a laptop computer, or an external display device (display, projector, etc.).
  • a controller screen is displayed on the display 21 of the communication terminal 20.
  • the user can operate the AV receiver 11, the micro component system 12, the speaker 13, and the player 14 by operating according to the controller screen.
  • the display 21 of the communication terminal 20 is a touch panel display. Therefore, the user can input an operation corresponding to the operation image to the communication terminal 20 by pressing (touching) the operation image displayed on the display 21.
  • FIG. 2 is a diagram showing a controller screen 22 displayed on the display 21.
  • button images 221, 222, 223, and 224 corresponding to devices that can be operated from the communication terminal 20 are displayed.
  • the button image 221 is associated with the AV receiver 11.
  • an operation screen (not shown) for the AV receiver 11 is displayed on the display 21.
  • the button images 222, 223, and 224 are associated with the micro component system 12, the speaker 13, and the player 14, respectively.
  • buttons images 221 to 224 display images related to devices (hereinafter referred to as device images) so that the user can intuitively understand which device each image corresponds to.
  • the user can specify device images to be displayed on the button images 221 to 224.
  • FIG. 2 shows an example of the controller screen 22 in which the device images are displayed on the button images 221 to 224.
  • buttons images 221 to 224 If an image automatically determined on the application side is displayed on each of the button images 221 to 224, it is understood which of the button images 221 to 224 should be selected when the user wants to operate the AV receiver 11. It may disappear. Therefore, by designating an image to be displayed by the user himself, the user can grasp which device can be operated by selecting which button image.
  • the “device image” includes a photograph or illustration of the appearance of the device, a photograph or illustration of the installation location of the device, a photograph or illustration of the owner of the device, a user's favorite color (single color or multicolor), and the like. .
  • the user can easily understand which device the button images 221 to 224 correspond to.
  • the installation location of the device on the button images 221 to 224 for example, when the user wants to operate the device in the bedroom, the user can easily understand which button image 221 to 224 should be selected.
  • buttons 221 to 224 By displaying the owner of the device on the button images 221 to 224, the user can know which button image 221 to 224 can be operated to operate his / her device. By displaying the user's favorite color on the button images 221 to 224, the user can make the controller screen 22 a favorite design. In addition, when the background of the button images 221 to 224 is colored, when text or the like is displayed on the button images 221 to 224, the text is easily visible.
  • controller screen 22 a method for customizing the controller screen 22 will be described.
  • the following method is an example of the “control method” according to the present invention.
  • 3 (A), 3 (B), 4 (A), and 4 (B) are diagrams illustrating a method for customizing the controller screen.
  • 3 (A), 3 (B), 4 (A), and 4 (B) the case where the device image is changed from the state in which the device image is already displayed on the button images 221 to 224 will be described. . Even when the device image to be displayed is registered from the state in which the device image is not displayed on the button images 221 to 224, the same applies to the following.
  • 3A, 3B, 4A, and 4B a case where the device image of the button image 221 is changed will be described.
  • the user keeps pressing the button image 221 for changing the device image for a long time (FIG. 3A).
  • the image selection screen 23 is displayed in the controller screen 22 (FIG. 3B).
  • the button images 222 to 224 other than the selected button image 221 may be hidden, or the display density of the button images 222 to 224 may be reduced.
  • the user can easily grasp which button image the device image is to be changed.
  • the image selection screen 23 is a menu screen for selecting a device image to be displayed on the button image 221.
  • the image selection screen 23 displays images classified by category. Specifically, the image selection screen 23 displays “User” images, “Situation” images, “Device” images, and “Color” images classified into four categories.
  • “User” image is an image prepared by the user. For example, an image obtained by capturing the portrait of the owner of the target device with a camera may be used, or an image captured from the outside and stored. Alternatively, the camera may be activated by selecting the “User” image.
  • the “Situation” image is an image (photograph or illustration) that reminds a room or place where each device is installed.
  • the “Device” image is a photograph or an illustration representing the appearance of various devices.
  • the “Color” image is an image of only a color (single color or multicolor). The color of the “Color” image may be created by the user.
  • the “Situation” image, the “Device” image, and the “Color” image are stored in the communication terminal 20 in advance.
  • a bedroom image 23A, a dining room image 23B, a living room image 23C, and a kitchen image 23D are displayed as an example of the “Situation” image.
  • the button image 221 displays the bedroom image 23A selected by the user. Thereby, when the user wants to operate the device in the bedroom, the user can visually grasp that the button image 221 should be selected. In this way, the controller screen 22 can be customized.
  • each button image 221 to 224 may be displayed with a setting button or the like superimposed on the device image. Then, the image selection screen 23 may be displayed by touching the setting button portion. The image selection screen 23 may display a list of images that can be selected as the changed image without classifying the photos for each category.
  • the selected image is displayed as it is on the button images 221 to 224, but the selected image is processed by image processing. (Blurring processing, blur processing processing, mosaic processing processing, etc.) may be displayed on each of the button images 221 to 224.
  • FIG. 5 is a diagram illustrating an example of image processing performed on the image to be displayed after the change.
  • an image includes something stronger in color than the surroundings (for example, red curtain A1, dark green plant A2, etc.)
  • the density level of the portion with strong color is increased while blurring the entire image.
  • the controller screen 22 can be further customized.
  • the user can group and manage a plurality of devices from this controller screen 22. Specifically, the user can group any one of the AV receiver 11, the micro component system 12, the speaker 13, and the player 14, and set the parent device and the child device from the grouped devices. When a plurality of devices are grouped, the device set as the parent device transmits music data to be reproduced by itself to other devices, and reproduces the same music data in synchronization with each device.
  • FIG. 6 is a diagram for explaining a method for setting a parent device from grouped devices.
  • Device grouping is executed, for example, by selecting a plurality of devices from a menu screen (not shown).
  • a master unit setting screen 24 is displayed on the controller screen 22.
  • the selected device is displayed on the parent device setting screen 24.
  • the user selects a device to be set as the parent device from the parent device setting screen 24.
  • Devices that are grouped and not selected as the parent device are set as the child devices.
  • the multiple button images corresponding to the grouped devices are combined into a single button image.
  • 7A and 7B are diagrams showing a controller screen 22 in which a plurality of button images are aggregated.
  • 7A and 7B a case where the AV receiver 11, the micro component system 12, and the speaker 13 are grouped and the AV receiver 11 is set as a parent device will be described.
  • the device image of the button image 221 corresponding to the AV receiver 11 set as the parent device is displayed in a blurred manner. Further, the button images 222 and 223 corresponding to the micro component system 12 and the speaker 13 set in the slave unit are not displayed.
  • button images 221 to 223 corresponding to the devices set as the parent device and the child device are combined and displayed. Further, the button images 222 and 223 corresponding to the micro component system 12 and the speaker 13 set in the slave unit are not displayed. In this case, the user can easily understand the device set as the parent device and the device set as the child device.
  • the user can grasp that a plurality of devices are grouped.
  • FIG. 8 is a block diagram showing the configuration of the communication terminal 20.
  • the communication terminal 20 includes a control unit 31, a display unit 32, an operation unit 33, a communication unit 34, a storage unit 35, and an imaging unit 36.
  • the display unit 32 and the operation unit 33 are the touch panel type display 21 described above.
  • the operation unit 33 receives an image selection operation by the user.
  • the operation unit 33 may be a physical button, an input pad, a mouse, or the like.
  • the communication unit 34 enables connection to the network 100.
  • the communication unit 34 is an example of the “connection unit” according to the present invention.
  • the storage unit 35 stores the “Situation” image, the “Device” image, and the “Color” image.
  • the imaging unit 36 is a camera for generating a “User” image.
  • the control unit 31 is a microcomputer including a CPU, a RAM, a ROM, and the like, and includes each function described below.
  • the display control unit 311 performs display control of the display unit 32 and displays the controller screen 22 and the like.
  • the display control unit 311 includes the “first display control unit”, “second display control unit”, “image change unit”, “classification display unit”, “image enhancement unit”, and “image non-display unit” according to the present invention. And an example of an “image composition unit”.
  • the change target selection unit 312 identifies the button image selected from the operation unit 33 from the button images 221 to 224 displayed on the controller screen 22.
  • the display control unit 311 displays the image selection screen 23 described with reference to FIG.
  • the image designation unit 313 identifies the category image selected by the operation unit 33 from the plurality of category images displayed on the image selection screen 23.
  • the category images are the above-mentioned “User” image, “Situation” image, “Device” image, and “Color” image.
  • the display control unit 311 changes the image selection screen 23 to the display described with reference to FIG.
  • the image designation unit 313 is an example of the “designation unit”, “image selection screen designation unit”, and “information image designation unit” according to the present invention.
  • the image designation unit 313 designates (specifies) the category image based on the operation by the user, but the category image may be designated automatically.
  • the image designation unit 313 acquires device information corresponding to the button image selected by the change target selection unit 312 from the server 15.
  • the device information is, for example, information such as a device installation location and a device owner.
  • the image designation unit 313 may designate an optimal “User” image, “Situation” image, or the like based on the information.
  • the image designation unit 313 is an example of the “acquisition unit” according to the present invention.
  • the parent device setting unit 314 specifies the device selected by the operation unit 33 from the parent device setting screen 24 displayed by the display control unit 311 and sets it as the parent device. Also, a device that is not set as a parent device is set as a child device.
  • the display control unit 311 performs image processing on the button image corresponding to the parent device, and removes the button image corresponding to the child device. Display.
  • the parent device setting unit 314 is an example of the “setting unit” according to the present invention.
  • the operation signal transmission unit 315 transmits an operation input via the operation screen of each device displayed on the display 21 to each device via the communication unit 34.
  • FIG. 9 is a flowchart showing processing executed by the communication terminal 20. The process shown in FIG. 9 is executed by the control unit 31.
  • the control unit 31 displays the controller screen 22 on the display 21 (S1).
  • a predetermined device image may be displayed on the button images 221 to 224, or nothing may be displayed.
  • the control unit 31 determines whether or not a change target for changing the device image is selected from the button images 221 to 224 in the controller screen 22 (S2).
  • the control unit 31 proceeds to the process of S6 described later.
  • the control unit 31 displays the image selection screen 23 on the display 21 (S3).
  • the control unit 31 determines whether or not the changed image is designated from the image selection screen 23 (S4).
  • the control unit 31 repeatedly executes S4.
  • the control unit 31 changes the display of the device image of the button image selected in S2 to the image designated in S4 (S5).
  • the control unit 31 determines whether or not to group a plurality of devices (S6). Note that the control unit 31 determines whether to perform grouping based on the presence or absence of an operation from the user. When not grouping (S6: NO), the control part 31 transfers to the process of S11.
  • the control unit 31 When grouping (S6: YES), the control unit 31 displays the parent device setting screen 24 on the display 21 (S7). The control unit 31 determines whether or not a device to be a parent device has been selected from the parent device setting screen 24 (S8). When the device to be the parent device is not selected (S8: NO), the control unit 31 repeatedly executes S8. When the device to be the parent device is selected (S8: YES), the control unit 31 sets the device selected in S8 as the parent device, and sets other grouped devices as the child devices (S9).
  • the control unit 31 aggregates and displays a plurality of button images corresponding to a plurality of grouped devices on a single button image on the controller screen 22 (S10). At this time, as described with reference to FIG. 7A, the control unit 31 blurs and displays the device image of the button image corresponding to the device set as the parent device, and corresponds to the device set as the child device. The button image may be hidden. Further, as described with reference to FIG. 7B, the control unit 31 combines and displays button images corresponding to the devices set in the parent device and the child device, and supports the devices set in the child device. The button image to be displayed may be hidden.
  • control unit 31 When the operation of each device is input from the controller screen 22, the control unit 31 transmits the operation to each device via the network 100 (S11). Thereby, the user can operate each device such as the AV receiver 11 by the communication terminal 20. And the control part 31 determines whether this program is complete
  • the display of the button images 221 to 224 on the controller screen 22 for operating each device can be changed.
  • the number of devices that are connected to the network 100 and can be controlled from the communication terminal 20 is increased, it becomes easier for the user to visually grasp the type, installation location, owner, and the like of each device. Control becomes easy.
  • FIG. 10 is a diagram showing a controller screen 22 displayed on the display according to the second embodiment.
  • a plurality of button images 221, 222, 223,... That cannot be displayed in one screen are displayed.
  • the user wants to operate a button image that is not displayed on the controller screen 22, it is necessary to perform an operation for changing the display range of the controller screen 22, and the operation becomes complicated.
  • the button images 221, 222, 223,... are operated by the user moving the screen with two fingers to reduce the screen (hereinafter referred to as a reduction operation). Is displayed in a reduced size.
  • FIG. 11 is a diagram showing an example of the controller screen 22 in which the button images 221, 222, 223,.
  • the reduction operation is performed, the vertical sizes of the button images 221 to 227 are reduced and displayed.
  • button images 224, 225, 226, and 227 that have not been displayed are also displayed.
  • each of the button images 221 to 227 can be handled like a character string of one line.
  • each of the button images 221 to 227 is displayed with only the vertical width narrowed, but the entire button image 221 to 227 may be displayed while reducing the whole while maintaining the aspect ratio.
  • the button images 221 to 227 are displayed in a line, but the reduced button images 221 to 227 may be arranged in a matrix.
  • the controller screen 22 in which each of the button images 221 to 227 shown in FIG. 11 is reduced and displayed when the user performs an operation of enlarging the screen by moving the screen with two fingers, as shown in FIG. You may make it return to the controller screen 22.
  • the device images displayed on the button images 221 to 227 can be changed as in the first embodiment.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

ネットワーク接続され、音楽データを送信又は受信する複数の機器を制御する通信端末は、AVレシーバ(11)等の機器に対応するボタン画像(221~224)に機器画像を表示する。通信端末(20)は、ボタン画像(221~224)から変更対象の選択操作を受け付け、変更後の画像の指定を受け付ける。そして、選択されたボタン画像に表示される機器画像を、指定された画像に変更する。

Description

制御装置、制御方法及び制御システム
 本発明は、ネットワーク接続され、コンテンツデータを送信又は受信する複数の外部機器の制御装置、制御方法及び制御システムに関する。
 特許文献1にはオーディオ配信システムが開示されている。このオーディオ配信システムは、サーバ装置からネットワークにストリーミング配信されるオーディオデータを複数のクライアント装置で同期して再生することができる。このシステムでは、例えば、各クライアント装置を、宅内の各部屋に設置することで、ユーザは、どの部屋でも、同じオーディオデータを聴くことができる。
特開2005-148565号公報
 特許文献1に記載のシステムでは、各クライアント装置は離れて設定されている。このため、各クライアント装置を、例えば、ユーザが所有する携帯端末で一元管理するようにすれば、ユーザは、各クライアント装置を手元の携帯端末で操作することができる。そして、ユーザは、各クライアント装置の設置場所まで移動する必要がない。しかしながら、携帯端末で一元管理する場合、クライアント装置の台数が多くなると、携帯端末に多くのクライアント装置の情報が表示される。このため、ユーザは、表示された情報が、どのクライアント装置に関するものなのかが把握できなくなるおそれがある。この場合、ユーザは、クライアント装置の情報に容易にアクセスできず、各クライアント装置の管理、操作が煩わしくなるおそれがある。
 そこで、上記問題点を鑑み、本発明の目的は、制御する複数の外部機器を視覚的に把握しやすくする制御装置、制御方法及び制御システムを提供することにある。
 本発明の制御装置は、接続部と、制御部と、表示制御部と、操作部と、指定部と、画像変更部とを備える。接続部はネットワークに接続する。制御部は、コンテンツデータを送信又は受信する複数の外部機器を、前記ネットワークを介して制御する。表示制御部は、前記複数の外部機器毎に、前記外部機器に関する画像を表示部に表示する。操作部は、前記表示部に表示された画像の選択操作を受け付ける。指定部は、前記表示部に表示させる画像を指定する。画像変更部は、前記操作部から選択された画像を、前記指定部が指定した画像に変更する。
 この構成では、ユーザは、表示部に表示する外部機器に関する画像を変更できる。これにより、制御する外部機器が複数あっても、ユーザは、外部機器の種類、設置場所、所有者等を視覚的に把握しやすくなる。
 本発明によれば、複数の外部機器がネットワークに接続されても、ユーザは、制御装置から制御する各外部機器を視覚的に把握することができる。
図1は、実施形態1に係る音声再生システムの構成を示す図である。 図2は、ディスプレイに表示されるコントローラ画面を示す図である。 図3(A)及び図3(B)は、コントローラ画面のカスタマイズ方法を説明する図である。 図4(A)及び図4(B)は、コントローラ画面のカスタマイズ方法を説明する図である。 図5は、変更後に表示する画像に施す画像処理の一例を示す図である。 図6は、グループ化した機器から親機を設定する方法を説明する図である。 図7(A)及び図7(B)は、複数のボタン画像を集約したコントローラ画面を示す図である。 図8は、通信端末の構成を示すブロック図である。 図9は、通信端末で実行される処理を示すフローチャートである。 図10は、実施形態2に係るディスプレイに表示されるコントローラ画面を示す図である。 図11は、ボタン画像を縮小表示させたコントローラ画面の一例を示す図である。
(実施形態1)
 図1は、実施形態1に係る音声再生システム10の構成を示す図である。音声再生システム10は、本発明に係る「制御システム」の一例である。
 音声再生システム10は、AVレシーバ11、マイクロコンポーネントシステム12、スピーカ13、プレーヤ14、及びサーバ15等を備えている。これらはネットワーク100に接続されている。ネットワーク100は、例えば、建物内に配線されたLAN(Local Area Network)である。ネットワーク100に接続されるAVレシーバ11等の各機器は、建物内の居間又は寝室等、複数の部屋に配置される。
 AVレシーバ11には、有線又は無線により、記録媒体111、テレビ112及びネットワークスピーカ113等が接続している。記録媒体111は、例えば、フラッシュメモリ、ハードディスクドライブ等である。AVレシーバ11は、例えば、記録媒体111に記憶される音楽データ又は映像データをテレビ112及びネットワークスピーカ113へ送信し、テレビ112及びネットワークスピーカ113は、そのデータを再生する。サーバ15は、例えば、NAS(Network Attached Storage)などのネットワークストレージである。
 AVレシーバ11、マイクロコンポーネントシステム12、スピーカ13及びプレーヤ14は、音楽データを再生する。再生する音楽データは、各機器のメモリに記憶されたデータであってもよいし、各機器に接続される記録媒体、例えばCD又はHDDから読み取られたデータでもよい。また、本実施形態では、各機器は音楽データを送受信可能であって、他の機器から音楽データを取得することができる。例えば、AVレシーバ11は、サーバ15に記憶された音楽データを取得し、その音楽データをテレビ112又はネットワークスピーカ113から再生することができる。
 ネットワーク100に接続されるAVレシーバ11、マイクロコンポーネントシステム12、スピーカ13、プレーヤ14及びサーバ15は、本発明に係る「外部機器」の一例である。また、音楽データは、本発明に係る「コンテンツデータ」の一例である。本発明に係る「コンテンツデータ」は、映像データであってもよい。
 ネットワーク100には、無線又は有線により通信端末20が接続される。通信端末20は、ユーザからの操作を受け付けて、ネットワーク100を介してユーザの操作を各機器へ送信し、各機器を制御する。通信端末20は、本発明に係る「制御装置」の一例である。
 通信端末20はディスプレイ21を有している。ディスプレイ21には、AVレシーバ11、マイクロコンポーネントシステム12、スピーカ13及びプレーヤ14を操作する操作画面が表示される。ユーザは、その操作画面から、例えば、機器の電源オンオフ操作、音量調節操作、曲の選択、演奏、スキップ操作等を行える。この通信端末20は、スマートフォン、タブレット、ノート型パソコン等、ディスプレイ21を有するデバイス、外部表示装置(ディスプレイ、プロジェクタ等)に接続することで表示画面を表示できる装置であればよい。
 以下に、通信端末20のディスプレイ21に表示される画面について説明する。通信端末20のディスプレイ21には、コントローラ画面が表示される。ユーザは、そのコントローラ画面に従って操作することで、AVレシーバ11、マイクロコンポーネントシステム12、スピーカ13及びプレーヤ14を操作することができる。本実施形態では、通信端末20のディスプレイ21はタッチパネル式ディスプレイである。したがって、ユーザは、ディスプレイ21に表示される操作用画像を押圧(タッチ)することで、その操作用画像に応じた操作を通信端末20に入力できる。
 図2は、ディスプレイ21に表示されるコントローラ画面22を示す図である。
 ディスプレイ21に表示されるコントローラ画面22には、通信端末20から操作可能な機器それぞれに対応するボタン画像221,222,223,224が表示される。ボタン画像221は、AVレシーバ11に対応付けられる。ユーザがそのボタン画像221をタッチすると、ディスプレイ21にはAVレシーバ11用の操作画面(不図示)が表示される。同様に、ボタン画像222,223,224それぞれは、マイクロコンポーネントシステム12、スピーカ13及びプレーヤ14に対応付けられている。
 これらボタン画像221~224には、それぞれの画像がどの機器に対応しているかをユーザが直感的に把握しやすいように、機器に関する画像(以下、機器画像と言う)が表示される。本実施形態では、ボタン画像221~224に表示する機器画像をユーザが指定することができる。なお、図2では、ボタン画像221~224に機器画像を表示したコントローラ画面22の一例を示している。
 仮に、ボタン画像221~224それぞれに、アプリ側で自動的に決められた画像が表示された場合、ユーザがAVレシーバ11を操作したいとき、ボタン画像221~224の何れを選択すればよいかが分からなくなることがある。そこで、ユーザ自身が表示する画像を指定することで、ユーザは、どのボタン画像を選択すれば、どの機器を操作できるかを把握することができる。
 ここで、「機器画像」には、機器の外観の写真又はイラスト、機器の設置場所の写真又はイラスト、機器の所有者の写真又はイラスト、ユーザの好みの色(単色又は多色)等を含む。ボタン画像221~224に機器の外観を表示することで、ユーザは、ボタン画像221~224がどの機器に対応しているかを把握し易くなる。ボタン画像221~224に機器の設置場所を表示することで、例えばユーザが寝室にある機器を操作したい場合に、ユーザは、どのボタン画像221~224を選択すればよいかが分かり易くなる。ボタン画像221~224に機器の所有者を表示することで、ユーザは、どのボタン画像221~224を選択すれば、自分の機器を操作できるかが分かる。ボタン画像221~224に、ユーザの好みの色を表示することで、ユーザは、コントローラ画面22を好みのデザインにすることができる。また、ボタン画像221~224の背景を色にすることで、ボタン画像221~224にテキスト等を表示する場合、そのテキストが視認しやすくなる。
 以下に、コントローラ画面22のカスタマイズ方法について説明する。以下の方法は、本発明に係る「制御方法」の一例である。
 図3(A)、図3(B)、図4(A)及び図4(B)は、コントローラ画面のカスタマイズ方法を説明する図である。図3(A)、図3(B)、図4(A)及び図4(B)では、既にボタン画像221~224に機器画像が表示された状態から、機器画像を変更する場合について説明する。ボタン画像221~224に機器画像が表示されていない状態から、表示する機器画像を登録する場合であっても、以下と同様である。また、図3(A)、図3(B)、図4(A)及び図4(B)では、ボタン画像221の機器画像を変更する場合について説明する。
 ユーザは、機器画像を変更するボタン画像221を長く押し続ける(図3(A))。これにより、コントローラ画面22内には、画像選択画面23が表示される(図3(B))。このとき、選択したボタン画像221以外のボタン画像222~224を非表示し、又はボタン画像222~224の表示濃度を薄くしてもよい。これにより、ユーザは、どのボタン画像の機器画像を変更しようとしているかを把握し易くなる。
 画像選択画面23は、ボタン画像221に表示する機器画像を選択するためのメニュー画面である。画像選択画面23は、カテゴリ毎に分類して画像を表示している。詳しくは、画像選択画面23は、4つのカテゴリに分類された、「User」画像、「Situation」画像、「Device」画像、「Color」画像を表示している。
 「User」画像は、ユーザが用意した画像である。例えば、カメラで対象機器の所有者の肖像を撮像した画像であってもよいし、外部から取り込み、保存した画像であってもよい。また、「User」画像が選択されることで、カメラが起動するようにしてもよい。「Situation」画像は、各機器が設置される部屋又は場所を思い浮かばせる画像(写真又はイラスト)である。「Device」画像は、様々な機器の外観を表現した写真又はイラストである。「Color」画像は、色(単色又は多色)のみの画像である。「Color」画像の色は、ユーザが作ってもよい。「Situation」画像、「Device」画像、及び「Color」画像は、予め通信端末20に保存されている。
 ユーザが、例えば、「Situation」画像を選択した場合、図4(A)に示すように、画像選択画面23には、「Situation」画像に分類された複数の画像が表示される。図4(A)では、「Situation」画像の一例として、寝室画像23A、食堂画像23B、居間画像23C、台所画像23Dを表示している。ユーザが寝室画像23Aを選択した場合、図4(B)に示すように、ボタン画像221には、ユーザにより選択された寝室画像23Aが表示される。これにより、ユーザは、寝室にある機器を操作したい場合には、ボタン画像221を選択すればよいことを視覚的に把握できるようになる。このように、コントローラ画面22をカスタマイズすることができる。
 図3(A)、図3(B)、図4(A)及び図4(B)で説明したカスタマイズ方法は一例であり、操作方法は適宜変更可能である。例えば、各ボタン画像221~224には機器画像に、設定ボタン等を重ねて表示するようにしてもよい。そして、その設定ボタン部分がタッチされることで、画像選択画面23が表示されるようにしてもよい。また、画像選択画面23は、カテゴリ毎に写真を分類せず、変更後の画像に選択できる画像を一覧表示してもよい。
 なお、図3(A)、図3(B)、図4(A)及び図4(B)では、選択した画像をそのままボタン画像221~224に表示しているが、選択した画像を画像処理(ぼかし処理、ブラー加工処理、モザイク加工処理等)して、各ボタン画像221~224に表示するようにしてもよい。
 図5は、変更後に表示する画像に施す画像処理の一例を示す図である。例えば、画像中に、周囲よりも色彩の強いもの(例えば、赤色のカーテンA1、深緑の植物A2等)が含まれている場合、全体をぼかしつつ、色彩の強い部分の濃度レベルを高くするように処理する。これにより、画像全体をぼかしつつも、色特徴のある画像を、各ボタン画像221~224に表示することができる。画像処理した画像を各ボタン画像221~224に表示することで、コントローラ画面22のカスタマイズ性をより高めることができる。
 ユーザは、このコントローラ画面22から、複数の機器をグループ化して管理することができる。詳しくは、ユーザは、AVレシーバ11、マイクロコンポーネントシステム12、スピーカ13及びプレーヤ14のなかから、何れかをグループ化し、グループ化した機器から親機と子機とを設定することができる。複数の機器をグループ化した場合、親機に設定された機器は、自身が再生する音楽データを他の機器へ送信し、各機器と同期して同じ音楽データを再生する。
 図6は、グループ化した機器から親機を設定する方法を説明する図である。
 機器のグループ化は、例えば、図示しないメニュー画面から機器を複数選択することで、実行される。そして、コントローラ画面22には親機設定画面24が表示される。親機設定画面24には、選択された機器が表示される。ユーザは、親機設定画面24から、親機に設定する機器を選択する。グループ化され、親機に選択されなかった機器は、子機に設定される。
 複数の機器がグループ化された場合、グループ化された機器に対応する複数のボタン画像は、一つのボタン画像に集約される。
 図7(A)及び図7(B)は、複数のボタン画像を集約したコントローラ画面22を示す図である。図7(A)及び図7(B)では、AVレシーバ11、マイクロコンポーネントシステム12及びスピーカ13がグループ化され、AVレシーバ11が親機に設定された場合について説明する。
 図7(A)に示すコントローラ画面22では、親機に設定されたAVレシーバ11に対応するボタン画像221の機器画像はぼかして表示されている。また、子機に設定されたマイクロコンポーネントシステム12及びスピーカ13に対応するボタン画像222,223は非表示にされている。
 図7(B)に示すコントローラ画面22では、親機及び子機に設定された機器それぞれに対応するボタン画像221~223は合成して表示されている。また、子機に設定されたマイクロコンポーネントシステム12及びスピーカ13に対応するボタン画像222,223は非表示にされている。この場合、ユーザは親機に設定された機器と、子機に設定された機器を把握しやすくなる。
 図7(A)及び図7(B)の何れの場合であっても、ユーザは、複数の機器がグループ化されたことを把握できる。
 以下に、前記のような表示制御を行う通信端末20の構成及び動作について説明する。
 図8は、通信端末20の構成を示すブロック図である。
 通信端末20は、制御部31、表示部32、操作部33、通信部34、記憶部35及び撮像部36を備えている。
 表示部32及び操作部33は、前記したタッチパネル式のディスプレイ21である。操作部33は、ユーザによる画像の選択操作等を受け付ける。この操作部33は、物理ボタン、入力用パッド又はマウスなどであってもよい。通信部34は、ネットワーク100への接続を可能にする。通信部34は、本発明に係る「接続部」の一例である。記憶部35は、前記した「Situation」画像、「Device」画像及び「Color」画像を記憶する。撮像部36は、「User」画像を生成するためのカメラである。
 制御部31は、CPU、RAM及びROM等からなるマイコンであり、以下に説明する各機能を備える。
 表示制御部311は、表示部32の表示制御を行い、コントローラ画面22等を表示する。表示制御部311は、本発明に係る「第1表示制御部」、「第2表示制御部」、「画像変更部」、「分類表示部」、「画像強調部」、「画像非表示部」及び「画像合成部」の一例である。
 変更対象選択部312は、コントローラ画面22に表示されたボタン画像221~224のなかから、操作部33から選択されたボタン画像を特定する。変更対象選択部312が選択されたボタン画像を特定すると、表示制御部311は、図3(B)で説明した画像選択画面23を表示する。
 画像指定部313は、画像選択画面23に表示された複数のカテゴリ画像から、操作部33によって選択されたカテゴリ画像を特定する。カテゴリ画像とは、前記した「User」画像、「Situation」画像、「Device」画像、「Color」画像である。画像指定部313がカテゴリ画像を特定すると、表示制御部311は、画像選択画面23を、図4(A)で説明した表示に変更する。画像指定部313は、本発明に係る「指定部」、「画像選択画面指定部」及び「情報画像指定部」の一例である。
 なお、画像指定部313は、ユーザによる操作に基づいて、カテゴリ画像を指定(特定)しているが、自動でカテゴリ画像を指定してもよい。例えば、画像指定部313は、変更対象選択部312で選択されたボタン画像に対応する機器情報をサーバ15から取得する。機器情報とは、例えば、機器の設置場所、機器の所有者等の情報である。画像指定部313は、その情報に基づいて、最適な「User」画像、「Situation」画像等を指定するようにしてもよい。この場合、画像指定部313は、本発明に係る「取得部」の一例である。
 親機子機設定部314は、表示制御部311が表示した親機設定画面24から、操作部33によって選択された機器を特定し、それを親機に設定する。また、親機に設定されていない機器を子機に設定する。親機子機設定部314が各機器を親機と子機とに設定すると、表示制御部311は、親機に対応するボタン画像に対し画像処理を施し、子機に対応するボタン画像を非表示にする。親機子機設定部314は、本発明に係る「設定部」の一例である。
 操作信号送信部315は、ディスプレイ21に表示される各機器の操作画面を介して入力された操作を、通信部34を介して、各機器へ送信する。
 図9は、通信端末20で実行される処理を示すフローチャートである。図9に示す処理は、制御部31により実行される。
 制御部31は、各機器を操作するためのプログラムが起動されると、ディスプレイ21にコントローラ画面22を表示する(S1)。コントローラ画面22を最初に表示する場合、各ボタン画像221~224には、予め決められた機器画像を表示してもよいし、何も表示しなくてもよい。次に、制御部31は、コントローラ画面22中の各ボタン画像221~224から、機器画像を変更する変更対象が選択されたか否かを判定する(S2)。
 変更対象が選択されていない場合(S2:NO)、制御部31は、後述のS6の処理に移行する。変更対象が選択された場合(S2:YES)、制御部31は、ディスプレイ21に画像選択画面23を表示する(S3)。制御部31は、画像選択画面23から変更後の画像が指定されたか否かを判定する(S4)。変更後の画像が指定されていない場合(S4:NO)、制御部31は、S4を繰り返し実行する。変更後の画像が指定された場合(S4:YES)、制御部31は、S2で選択されたボタン画像の機器画像の表示を、S4で指定された画像に変更する(S5)。
 制御部31は、複数の機器をグループ化するか否かを判定する(S6)。なお、制御部31は、ユーザからの操作の有無によって、グループ化するか否かを判定する。グループ化しない場合(S6:NO)、制御部31は、S11の処理に移行する。
 グループ化する場合(S6:YES)、制御部31は、ディスプレイ21に親機設定画面24を表示する(S7)。制御部31は、親機設定画面24から親機にする機器が選択されたか否かを判定する(S8)。親機にする機器が選択されていない場合(S8:NO)、制御部31は、S8を繰り返し実行する。親機にする機器が選択された場合(S8:YES)、制御部31は、S8で選択された機器を親機に設定し、グループ化した他の機器を子機に設定する(S9)。
 制御部31は、コントローラ画面22において、グループ化した複数の機器に対応する複数のボタン画像を、一つのボタン画像に集約して表示する(S10)。このとき、図7(A)で説明したように、制御部31は、親機に設定された機器に対応するボタン画像の機器画像をぼかして表示し、子機に設定された機器に対応するボタン画像を非表示にしてもよい。また、図7(B)で説明したように、制御部31は、親機及び子機に設定された機器それぞれに対応するボタン画像を合成して表示し、子機に設定された機器に対応するボタン画像を非表示にしてもよい。
 制御部31は、コントローラ画面22から、各機器の操作が入力されると、その操作を、ネットワーク100を介して各機器へ送信する(S11)。これにより、ユーザは、AVレシーバ11等の各機器を、通信端末20により操作できる。そして、制御部31は、本プログラムを終了するか否かを判定し(S12)、終了する場合は(S12:YES)、本処理を終了する。終了しない場合(S12:NO)、制御部31は、S2の処理を実行する。
 以上のように、本実施形態では、各機器を操作するためのコントローラ画面22のボタン画像221~224の表示を変更することができる。これにより、ネットワーク100に接続され、通信端末20から制御できる機器数が増加しても、ユーザは、各機器の種類、設置場所、所有者等を視覚的に把握しやすくなり、機器の管理、制御が容易となる。
(実施形態2)
 本実施形態に係るコントローラ画面では、画面のレイアウトと、ボタン画像のサイズを変更することができる。
 図10は、実施形態2に係るディスプレイに表示されるコントローラ画面22を示す図である。図10に示すコントローラ画面22の場合、一つの画面内に表示しきれない複数のボタン画像221,222,223,,,が表示されている。この場合、ユーザは、コントローラ画面22に表示されていないボタン画像を操作したい場合、コントローラ画面22の表示範囲を変更させる操作を行う必要があり、操作が煩雑となる。
 そこで、本実施形態では、ユーザが2本の指で画面上をつまむように動かし、画面を縮小させる操作(以下、縮小操作と言う)を行うことで、ボタン画像221,222,223,,,を縮小表示されるようにしている。
 図11は、ボタン画像221,222,223,,,を縮小表示させたコントローラ画面22の一例を示す図である。縮小操作した場合、ボタン画像221~227の縦サイズが狭くなって表示される。この場合、図10では、表示されていなかったボタン画像224,225,226,227も表示されるようになる。複数のボタン画像221~227の縦幅を短くして表示することで、各ボタン画像221~227を1行の文字列のように扱うことができるようになる。
 なお、この例では、縦幅のみを狭くして各ボタン画像221~227を表示させているが、縦横比を保ちつつ、全体を縮小させて各ボタン画像221~227を表示させてもよい。また、図11では、各ボタン画像221~227を一列に表示させているが、縮小表示させたボタン画像221~227をマトリクス状に配置してもよい。さらに、図11に示す各ボタン画像221~227を縮小表示したコントローラ画面22において、ユーザが2本の指で画面上をつまむように動かし、画面を拡大させる操作を行った場合、図10に示すコントローラ画面22に戻すようにしてもよい。また、各ボタン画像221~227に表示される機器画像は、実施形態1と同様に変更することができる。
10…音声再生システム
11…AVレシーバ
12…マイクロコンポーネントシステム
13…スピーカ
14…プレーヤ
15…サーバ
20…通信端末
21…ディスプレイ
22…コントローラ画面
23…画像選択画面
23A…寝室画像
23B…食堂画像
23C…居間画像
23D…台所画像
24…親機設定画面
31…制御部
32…表示部
33…操作部
34…通信部
35…記憶部
36…撮像部
100…ネットワーク
111…記録媒体
112…テレビ
113…ネットワークスピーカ
221,222,223,224,225,226,227…ボタン画像
311…表示制御部
312…変更対象選択部
313…画像指定部
314…親機子機設定部
315…操作信号送信部

Claims (9)

  1.  ネットワークに接続する接続部と、
     コンテンツデータを送信又は受信する複数の外部機器を、前記ネットワークを介して制御する制御部と、
     前記複数の外部機器毎に、前記外部機器に関する画像を表示部に表示する表示制御部と、
     前記表示部に表示された画像の選択操作を受け付ける操作部と、
     前記表示部に表示させる画像を指定する指定部と、
     を備え、
     前記表示制御部は、
     前記操作部から選択された画像を、前記指定部が指定した画像に変更する画像変更部を有する、
     制御装置。
  2.  前記表示制御部は、複数の画像を種類毎に分類して表示する画像選択画面を前記表示部に表示する分類表示部を有し、
     前記指定部は、前記画像選択画面から画像を指定する画像選択画面指定部を有する、
     請求項1に記載の制御装置。
  3.  前記表示制御部は、前記指定部が指定した画像をぼかしつつ、前記画像の一部の色を強調して表示する画像強調部を有する、
     請求項1又は2に記載の制御装置。
  4.  前記操作部から複数の画像が選択された場合、前記複数の画像に対応する外部機器の一つを親機に設定し、他を子機に設定する設定部、
     を備える請求項1から3の何れかに記載の制御装置。
  5.  前記表示制御部は、前記設定部が親機に設定した外部機器に関する画像をぼかし、前記設定部が子機に設定した外部機器に関する画像を非表示にする画像非表示部を有する、
     請求項4に記載の制御装置。
  6.  前記表示制御部は、前記設定部が親機に設定した外部機器に関する画像と、子機に設定した外部機器に関する画像とを合成して表示する画像合成部を有する、
     請求項4に記載の制御装置。
  7.  前記操作部から選択された画像に対応する外部機器に関する情報を外部から取得する取得部、
     を備え、
     前記指定部は、前記取得部が取得した情報に基づいて画像を指定する情報画像指定部を有する、
     請求項1から6に記載の制御装置。
  8.  ネットワークに接続する接続ステップと、
     コンテンツデータを送信又は受信する複数の外部機器を、前記ネットワークを介して制御する制御ステップと、
     前記複数の外部機器毎に、前記外部機器に関する画像を表示部に表示する第1表示制御ステップと、
     前記表示部に表示された画像の選択操作を受け付ける操作ステップと、
     前記表示部に表示させる画像を指定する指定ステップと、
     前記操作ステップで選択された画像を、前記指定ステップで指定された画像に変更する第2表示制御ステップと、
     を含む制御方法。
  9.  ネットワークに接続され、コンテンツデータを送信又は受信する複数の外部機器と、
     前記複数の外部機器を、前記ネットワークを介して制御する制御装置と、
     を備え、
     前記制御装置は、
     前記複数の外部機器毎に、前記外部機器に関する画像を表示部に表示する第1表示制御部と、
     前記表示部に表示された画像の選択操作を受け付ける操作部と、
     前記表示部に表示させる画像を指定する指定部と、
     前記操作部から選択された画像を、前記指定部が指定した画像に変更する第2表示制御部を有する、
     制御システム。
PCT/JP2016/073059 2015-08-18 2016-08-05 制御装置、制御方法及び制御システム WO2017030013A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/898,276 US10642235B2 (en) 2015-08-18 2018-02-16 Control apparatus, control method, and control system that provide display control to display images associated with master and slave devices

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015161059A JP6693066B2 (ja) 2015-08-18 2015-08-18 制御装置
JP2015-161059 2015-08-18

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/898,276 Continuation US10642235B2 (en) 2015-08-18 2018-02-16 Control apparatus, control method, and control system that provide display control to display images associated with master and slave devices

Publications (1)

Publication Number Publication Date
WO2017030013A1 true WO2017030013A1 (ja) 2017-02-23

Family

ID=58051826

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/073059 WO2017030013A1 (ja) 2015-08-18 2016-08-05 制御装置、制御方法及び制御システム

Country Status (3)

Country Link
US (1) US10642235B2 (ja)
JP (1) JP6693066B2 (ja)
WO (1) WO2017030013A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10552009B2 (en) 2014-09-02 2020-02-04 Apple Inc. Stopwatch and timer user interfaces
CN111343060B (zh) 2017-05-16 2022-02-11 苹果公司 用于家庭媒体控制的方法和界面
US20220279063A1 (en) 2017-05-16 2022-09-01 Apple Inc. Methods and interfaces for home media control
JP7015654B2 (ja) 2017-08-10 2022-02-03 シスメックス株式会社 検査システムおよび検査システムの起動方法
KR102527082B1 (ko) * 2018-01-04 2023-04-28 삼성전자주식회사 디스플레이장치 및 그 제어방법
US10904029B2 (en) * 2019-05-31 2021-01-26 Apple Inc. User interfaces for managing controllable external devices
US11363071B2 (en) 2019-05-31 2022-06-14 Apple Inc. User interfaces for managing a local network
US11010121B2 (en) 2019-05-31 2021-05-18 Apple Inc. User interfaces for audio media control
KR102436985B1 (ko) 2019-05-31 2022-08-29 애플 인크. 오디오 미디어 제어를 위한 사용자 인터페이스
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005150901A (ja) * 2003-11-12 2005-06-09 Matsushita Electric Ind Co Ltd 機器登録システムおよび情報端末
JP2006215725A (ja) * 2005-02-02 2006-08-17 Canon Inc 印刷システムおよびプリンタ管理方法およびコンピュータが読み取り可能なプログラムを格納した記憶媒体およびプログラム
JP2011253370A (ja) * 2010-06-02 2011-12-15 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2014185056A1 (ja) * 2013-05-16 2014-11-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報提供方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5564004A (en) * 1994-04-13 1996-10-08 International Business Machines Corporation Method and system for facilitating the selection of icons
US20030158927A1 (en) * 2002-02-21 2003-08-21 Gateway, Inc. Connected home network console
JP2003308150A (ja) * 2002-04-15 2003-10-31 Canon Inc 電子機器およびアイコン変更方法
KR100932813B1 (ko) * 2002-10-01 2009-12-21 엘지전자 주식회사 동일 유형의 홈 네트웍 기기를 위치별로 구분 및 표시하는장치
JP4289129B2 (ja) 2003-11-18 2009-07-01 ヤマハ株式会社 オーディオ配信システム
US20110093799A1 (en) * 2004-09-08 2011-04-21 Universal Electronics Inc. System and method for configuration of controlling device functionality
US9686581B2 (en) * 2013-11-07 2017-06-20 Cisco Technology, Inc. Second-screen TV bridge
CN113467670A (zh) * 2014-12-26 2021-10-01 索尼公司 信息处理装置、信息处理方法和程序

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005150901A (ja) * 2003-11-12 2005-06-09 Matsushita Electric Ind Co Ltd 機器登録システムおよび情報端末
JP2006215725A (ja) * 2005-02-02 2006-08-17 Canon Inc 印刷システムおよびプリンタ管理方法およびコンピュータが読み取り可能なプログラムを格納した記憶媒体およびプログラム
JP2011253370A (ja) * 2010-06-02 2011-12-15 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2014185056A1 (ja) * 2013-05-16 2014-11-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報提供方法

Also Published As

Publication number Publication date
JP2017041008A (ja) 2017-02-23
US20180173178A1 (en) 2018-06-21
JP6693066B2 (ja) 2020-05-13
US10642235B2 (en) 2020-05-05

Similar Documents

Publication Publication Date Title
WO2017030013A1 (ja) 制御装置、制御方法及び制御システム
US11113022B2 (en) Method, system and interface for controlling a subwoofer in a networked audio system
US9503626B2 (en) Image display apparatus, camera and control method of the same
US10397643B2 (en) Electronic device for identifying peripheral apparatus and method thereof
US8504183B2 (en) Web browser based remote control for programmable multimedia controller
EP3040848A1 (en) Method for controlling multiple sub-screens on display device and display device therefor
EP2744216B1 (en) Content playing apparatus, method for providing UI of content playing apparatus, network server, and method for controlling by network server
JP6635047B2 (ja) 情報処理装置、情報処理方法、及びプログラム
EP3057332B1 (en) Device and method for transmitting and receiving video data
JP5780259B2 (ja) 情報処理装置、情報処理方法、プログラム
US10848871B2 (en) Content output system, display apparatus and control method thereof
US20230350939A1 (en) Systems and methods for displaying media files
US10404778B2 (en) Session hand-off for mobile applications
TW201225647A (en) Remote control of television displays
TW201637415A (zh) 用於大型會議的橋接裝置
US20220134226A1 (en) Information processing apparatus, information processing method, and program
JP2022512473A (ja) 様々なタイプのコンテンツを出力するためのディスプレイ装置
JP6922170B2 (ja) 情報処理装置、情報処理方法、プログラム、及び情報処理システム
TWI750827B (zh) 第三方控制多媒體呈現的方法
EP3295667B1 (en) Method, system and interface for controlling a subwoofer in a networked audio system
JP2021043691A (ja) 情報処理システム、通信端末、情報処理方法及びプログラム
JP2013106345A (ja) デジタルメディアレンダラーでコンテンツを再生する方法及び関連するコンピュータシステム
WO2010080608A1 (en) Audio system control interface
TW201642144A (zh) 電子裝置及電子裝置之操作方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16837003

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16837003

Country of ref document: EP

Kind code of ref document: A1