JP2010141748A - Remote control device and system - Google Patents

Remote control device and system Download PDF

Info

Publication number
JP2010141748A
JP2010141748A JP2008317724A JP2008317724A JP2010141748A JP 2010141748 A JP2010141748 A JP 2010141748A JP 2008317724 A JP2008317724 A JP 2008317724A JP 2008317724 A JP2008317724 A JP 2008317724A JP 2010141748 A JP2010141748 A JP 2010141748A
Authority
JP
Japan
Prior art keywords
key
menu
tag
function
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008317724A
Other languages
Japanese (ja)
Other versions
JP5347472B2 (en
Inventor
Masatoshi Kawashima
正敏 川嶋
Akihiko Suyama
明彦 須山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2008317724A priority Critical patent/JP5347472B2/en
Publication of JP2010141748A publication Critical patent/JP2010141748A/en
Application granted granted Critical
Publication of JP5347472B2 publication Critical patent/JP5347472B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Selective Calling Equipment (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a remote control device capable of controlling many functions without being enlarged/complicated, capable of controlling an apparatus to be controlled provided with a new function and capable of simply operating general function control. <P>SOLUTION: A commander 16 being the remote control device accesses an apparatus to be controlled 11 e.g., through a network, acquires a self description file and performs setup operation so as to allocate known functions which are general functions to key switches 41 to 56 and display unknown functions which are the other functions on a menu page with a hierarchical structure in a display 36 by icons or the like. By the setup operation, the commander 16 is functioned as a commander for the apparatus to be controlled 11. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、複数の被制御機器を制御できる遠隔制御装置、および、この遠隔制御装置と被制御機器からなる遠隔制御システムに関する。   The present invention relates to a remote control device capable of controlling a plurality of controlled devices, and a remote control system including the remote control device and controlled devices.

近年、赤外線等のコマンド信号によりリモートコントロールが可能な電気機器が増加している。このため、複数の電気機器(被制御機器)のコマンド信号を記憶し、1台で多くの機器を制御できるようにされた学習リモコンシステムが提案されている(たとえば特許文献1)。特許文献1の学習リモコンシステムでは、被制御機器に一覧表示されたコマンドのなかから必要なものを選択すると、選択されたコマンドがまとめて学習リモコン装置に記憶されるようになっている。これにより、複数のコマンド信号を1つ1つ学習させる面倒を省いている。   In recent years, electrical devices that can be remotely controlled by command signals such as infrared rays have been increasing. For this reason, a learning remote control system has been proposed in which command signals of a plurality of electric devices (controlled devices) are stored so that a single device can control many devices (for example, Patent Document 1). In the learning remote control system of Patent Document 1, when necessary commands are selected from the commands displayed in a list on the controlled device, the selected commands are stored together in the learning remote control device. This eliminates the trouble of learning a plurality of command signals one by one.

特開2004−072384号公報JP 2004-072384 A

このように、特許文献1の学習リモコンシステムでは、被制御装置からリモコン装置に対して複数のコマンド信号を一括して学習することができ学習が容易になってはいるが、学習リモコン装置で制御できる機能は、その学習リモコン装置が備えるキースイッチに割り当て可能な機能に限定され、多くの機能を制御しようとすれば多くのキースイッチが必要になり、リモコン装置が大型化・煩雑化するという問題点があった。また、リモコン装置が新たな被制御機器を制御可能にするためにはやはり学習操作が必要であった。   As described above, in the learning remote control system of Patent Document 1, a plurality of command signals can be learned from the controlled device to the remote control device in a lump and learning is facilitated, but control is performed by the learning remote control device. The functions that can be assigned are limited to the functions that can be assigned to the key switches of the learning remote control device. If you want to control many functions, you will need many key switches, and the remote control device will be large and complicated. There was a point. In addition, a learning operation is still necessary for the remote control device to be able to control a new controlled device.

この発明は、大型化・煩雑化することなく多くの機能を制御可能であるとともに、新規な機能を備えた被制御機器を制御可能であり、且つ汎用的な機能制御は簡略に操作可能な遠隔操作装置および遠隔操作システムを提供することを目的とする。   The present invention can control many functions without increasing the size and complexity, can control a controlled device having a new function, and can perform general-purpose function control in a simple manner. An object is to provide an operation device and a remote operation system.

この出願の請求項1の発明である遠隔制御装置は、被制御機器の機能制御コマンドが対応づけられた(アイコン等の)画像または(メニューリスト等の)文字が表示されるディスプレイと、前記ディスプレイ上の前記画像または文字の指定操作を受け付けるポインティング操作部と、前記被制御機器の所定の機能制御コマンドが対応づけられる1または複数のコマンドキーと、前記被制御機器の複数の機能制御コマンドが記述された自己記述ファイルを取得し、この自己記述ファイルに記述されている複数の機能制御コマンドのうち、前記所定の機能制御コマンドを前記キースイッチに対応づけるとともに、それ以外の機能制御コマンドが対応づけられた画像または文字を前記ディスプレイに表示し、前記コマンドキーが操作されたとき、そのコマンドキーに対応づけられている機能制御コマンドを発行し、前記ポインティング操作部により前記ディスプレイに表示された画像または文字が指定されたとき、その画像または文字に対応づけられている機能制御コマンドを発行する制御部と、を備えたことを特徴とする。   The remote control device according to claim 1 of the present application includes a display on which an image (such as an icon) or a character (such as a menu list) associated with a function control command of a controlled device is displayed, and the display The pointing operation unit that receives the image or character designation operation above, one or a plurality of command keys associated with a predetermined function control command of the controlled device, and a plurality of function control commands of the controlled device are described The self-describing file is obtained, and among the plurality of function control commands described in the self-describing file, the predetermined function control command is associated with the key switch, and other function control commands are associated with each other. When the command key is operated, the displayed image or character is displayed on the display. When a function control command associated with a command key is issued and an image or character displayed on the display is designated by the pointing operation unit, a function control command associated with the image or character is issued. And a control unit.

請求項2の発明は、請求項1の発明において、所定のページへの移動処理が対応づけられるページキーをさらに備え、前記制御部は、前記ディスプレイは、前記機能制御コマンドが対応づけられた画像または文字を複数ページにわたって表示するとともに、該複数ページのうち一部または全部に、他のページへの移動処理が対応づけられた画像または文字を表示し、さらに、前記ページキーに所定ページへの移動処理を対応づけることを特徴とする。   According to a second aspect of the present invention, in the first aspect of the present invention, the image processing apparatus further includes a page key associated with a process for moving to a predetermined page, and the control unit is configured to display the image associated with the function control command. Alternatively, the characters are displayed over a plurality of pages, and an image or a character associated with a movement process to another page is displayed on a part or all of the plurality of pages, and further, the page key is used to display a predetermined page. It is characterized by associating movement processing.

請求項3の発明は、請求項2の発明において、所定の機能が対応づけられるファンクションキーをさらに備え、前記制御部は、前記ディスプレイに表示しているページに応じて、前記機能制御コマンドおよび/または他ページへの移動処理を前記ファンクションキーに対応づけることを特徴とする。   According to a third aspect of the present invention, in the second aspect of the present invention, the control unit further includes a function key to which a predetermined function is associated, and the control unit performs the function control command and / or according to a page displayed on the display. Alternatively, the process of moving to another page is associated with the function key.

請求項4の発明は、請求項1〜3の発明において、前記被制御機器の自己記述ファイルは、通信により当該被制御機器から取得されることを特徴とする。
この出願の請求項5の発明である遠隔制御システムは、請求項4の遠隔制御装置と、少なくとも、前記遠隔制御装置と通信する通信手段、および、前記自己記述ファイルを記憶する記憶手段を備えた1または複数の被制御機器と、を有することを特徴とする。
According to a fourth aspect of the present invention, in the first to third aspects of the invention, the self-describing file of the controlled device is acquired from the controlled device by communication.
The remote control system according to claim 5 of the present application includes the remote control device according to claim 4, at least communication means for communicating with the remote control device, and storage means for storing the self-describing file. And one or a plurality of controlled devices.

この発明によれば、ディスプレイとコマンドキーを備えたことにより、汎用的な(パワーオン/オフなど)の機能はコマンドキーに対応づけて操作性を良くすることができるとともに、他の機能はディスプレイに表示するアイコンなどの画像またはメニューリストなどの文字に対応づけてキースイッチの数を増やすことなく、多くの機能や旧来にない新規な機能を制御することができる。   According to the present invention, since the display and the command key are provided, general-purpose (power on / off, etc.) functions can be associated with the command key to improve operability, and other functions can be displayed. It is possible to control many functions and new functions that are not traditional without increasing the number of key switches in association with images such as icons displayed on the screen or characters such as menu lists.

また、自己記述ファイルを自動的に取得するようにすれば、利用者が学習の操作を行わなくても被制御装置を操作する遠隔制御装置(コマンダ)をセットアップすることが可能になる。   If the self-describing file is automatically acquired, it is possible to set up a remote control device (commander) that operates the controlled device without the user performing a learning operation.

≪オーディオネットワークとこの発明の概要説明≫
図1は、この発明が適用されるオーディオシステムの構成を示す図である。この種のオーディオネットワークシステムは、カスタムインストレーションと呼ばれ大型の戸建て住宅に施工されるものである。
<< Overview of Audio Network and Invention >>
FIG. 1 is a diagram showing the configuration of an audio system to which the present invention is applied. This type of audio network system is called a custom installation and is installed in a large detached house.

複数のオーディオ機器で構成されるオーディオ機器群10は、たとえばリビングルームの壁に設けられたラックに収納される。オーディオ機器群10として、AVレシーバ(AV receiver)11、12や、AVレシーバ11、12にオーディオソースを供給するDVDプレイヤ(DVD player)13、パーソナルコンピュータ(PC)14等のソース機器がある。AVレシーバ11、12DVDプレイヤ13等のオーディオ機器は、オーディオ信号を再生、増幅等処理するオーディオ回路部11A、12A、13A、機器の動作を制御する制御部11B、12B、13Bを備えている。また、AVレシーバ11、12は、ソース機器としてFM/AM放送を受信するチューナ(Tuner)11C、12Cを内蔵している。なお、PC14は、ハードディスクにオーディオファイルを記憶しこれをCPUが再生するため、ハードウェア的には制御部と区別がないが、PC14のオーディオ再生機能部をオーディオ回路部14A、制御機能部を制御部14Bと呼ぶ。
このように、オーディオ機器群10を構成するオーディオ機器の構成は任意であり、上記に限定されない。図示以外のソース機器としては、マイクロHDDドライブを内蔵したオーディオ再生装置やPC等がある。
The audio device group 10 composed of a plurality of audio devices is housed in a rack provided on the wall of a living room, for example. The audio device group 10 includes source devices such as AV receivers 11 and 12, a DVD player 13 that supplies audio sources to the AV receivers 11 and 12, and a personal computer (PC) 14. Audio devices such as the AV receiver 11 and the DVD player 13 include audio circuit units 11A, 12A, and 13A for reproducing and amplifying audio signals, and control units 11B, 12B, and 13B for controlling the operation of the devices. The AV receivers 11 and 12 include tuners 11C and 12C that receive FM / AM broadcasts as source devices. The PC 14 stores an audio file in the hard disk and is played back by the CPU. Therefore, the PC 14 is indistinguishable from the control unit in terms of hardware. This will be referred to as part 14B.
As described above, the configuration of the audio devices constituting the audio device group 10 is arbitrary and is not limited to the above. As source devices other than those illustrated, there are an audio playback device, a PC, and the like with a built-in micro HDD drive.

AVレシーバ11は、入力側に上記のDVDプレイヤ13、PC14等のソース機器を接続し、複数のソース機器のいずれかから入力したオーディオ信号を3つのゾーン(部屋)に供給する。各ゾーンに独立してオーディオ信号を供給するために、AVレシーバ11は3系統のオーディオアンプを有している。また、AVレシーバ12は、入力側に上記のDVDプレイヤ13、PC14等のソース機器を接続し、複数のソース機器のいずれかから入力したオーディオ信号を1つのゾーン(部屋)に供給する。このAVレシーバ12は、パワーアンプを備えておらず、オーディオ信号を光ファイバ等を介して担当ゾーンのアンプ23に送信する。   The AV receiver 11 is connected to the source device such as the DVD player 13 and the PC 14 on the input side, and supplies an audio signal input from any of the plurality of source devices to three zones (rooms). In order to supply an audio signal to each zone independently, the AV receiver 11 has three audio amplifiers. The AV receiver 12 is connected to a source device such as the DVD player 13 or the PC 14 on the input side, and supplies an audio signal input from any of the plurality of source devices to one zone (room). The AV receiver 12 does not include a power amplifier, and transmits an audio signal to the amplifier 23 in the assigned zone via an optical fiber or the like.

4つのゾーンZ1〜4は、それぞれ家屋内の部屋であり、たとえばゾーン1(Z1)が居間(Livng)、ゾーン2(Z2)が寝室(Bed Room)、ゾーン3(Z3)が子供部屋(Kids Room)、ゾーン4(Z4)が台所(Kitchen)である。ゾーン1〜4には、スピーカ21と無線LANのアクセスポイント22が設置されている。また、ゾーン4には、さらにアンプ23が設置されている。ゾーン1〜3のスピーカ21には、AVレシーバ11によって電力増幅されたオーディオ信号が印加される。また、ゾーン4においては、アンプ23がAVレシーバ12の赤外線オーディオ信号を受信して、この信号を電力増幅しスピーカ21に印加する。   Each of the four zones Z1 to 4 is a room in the house. For example, zone 1 (Z1) is a living room (Living), zone 2 (Z2) is a bedroom (Bed Room), and zone 3 (Z3) is a children's room (Kids). Room), Zone 4 (Z4) is the kitchen. In zones 1 to 4, a speaker 21 and a wireless LAN access point 22 are installed. In the zone 4, an amplifier 23 is further installed. The audio signals amplified by the AV receiver 11 are applied to the speakers 21 in the zones 1 to 3. In zone 4, the amplifier 23 receives the infrared audio signal from the AV receiver 12, power-amplifies this signal, and applies it to the speaker 21.

各オーディオ機器の制御部11B,12B,13B,14Bおよびアクセスポイント22はLAN15で相互に接続されている。LAN15は、図示しないルータによってインターネットに接続されているが、各機器(制御11B,12B,13B、14Bおよびアクセスポイント22、コマンダ16)は、LAN15に接続されたとき、ローカルIPアドレスが付与され、各機器はそのローカルIPアドレスを用いて相互にアクセス可能である。制御機器であるコマンダ16は、LAN15上を検索して被制御機器であるオーディオ機器を検出し、そのIPアドレスを取得する。以後、このIPアドレスを用いて各オーディオ機器と交信する。LAN15は有線LAN、無線LAN、有線LANと無線LANの複合のいずれの形態であってもよい。   The control units 11B, 12B, 13B, 14B and the access point 22 of each audio device are connected to each other via a LAN 15. The LAN 15 is connected to the Internet by a router (not shown), but each device (control 11B, 12B, 13B, 14B and access point 22, commander 16) is assigned a local IP address when connected to the LAN 15, Each device can access each other using its local IP address. The commander 16 that is a control device searches the LAN 15 to detect an audio device that is a controlled device, and acquires its IP address. Thereafter, it communicates with each audio device using this IP address. The LAN 15 may be any form of a wired LAN, a wireless LAN, or a combination of a wired LAN and a wireless LAN.

この発明の実施形態であるコマンダ(リモコン)16は、無線LANによりアクセスポイント22を介して各オーディオ機器の制御部11B,12B,13B,14Bと通信する。なお、この図では、コマンダ16は1台あり、この1台のコマンダ16が4つのゾーンで移動させて使用される形態を示しているが、コマンダ16がそれぞれのゾーンにあるような形態であってもよい。   The commander (remote controller) 16 according to the embodiment of the present invention communicates with the control units 11B, 12B, 13B, and 14B of each audio device via the access point 22 by wireless LAN. In this figure, there is one commander 16 and the one commander 16 is used by being moved in four zones. However, the commander 16 is in each zone. May be.

以上の構成のオーディオシステムにおいて、利用者はコマンダ16を用いて自分が居るゾーンでオーディオ機器を制御して所望の音楽を聴くことができる。コマンダ16は、LAN15を介して被制御機器であるオーディオ機器11〜14からコマンドリストを含む自己記述ファイルを受信し、各コマンドをハードスイッチであるキースイッチ41〜56(図2参照)やディスプレイ36(図2参照)に表示されるメニューに割り当て、キースイッチ41〜56のオン操作またはメニューの選択に応じてオーディオ機器11〜14に対してコマンドを発行(送信)する。したがって、1台のコマンダ16で全てのオーディオ機器11〜14を制御することができる。   In the audio system configured as described above, the user can listen to desired music by using the commander 16 to control the audio device in the zone where the user is. The commander 16 receives a self-describing file including a command list from the audio devices 11 to 14 as controlled devices via the LAN 15, and sends each command to key switches 41 to 56 (see FIG. 2) as hard switches and the display 36. Assigned to a menu displayed in (see FIG. 2), a command is issued (transmitted) to the audio devices 11 to 14 in response to an on operation of the key switches 41 to 56 or a menu selection. Therefore, all the audio devices 11 to 14 can be controlled by one commander 16.

≪コマンダおよびオーディオ機器の説明≫
図2はコマンダ16の外観図である。また、図3はコマンダ16のブロック図である。
コマンダ16は略ハガキ大の平面形状を有する薄い直方体形状を成しており、その上面が操作面である。図2は、その操作面を示す平面図である。中央部やや左に液晶のディスプレイ36が設けられている。このディスプレイ36の右側上部にタッチパッド37が設けられている。タッチパッド37は、ディスプレイ36上のカーソルを移動させたり、カーソルが指しているオブジェクトを選択したりするためのデバイスである。利用者が指先で触れ、その指先を移動させることによりカーソルが移動する。また、使用者が指先が軽く叩くことにより、カーソルが指しているオブジェクトが選択される。
≪Description of commander and audio equipment≫
FIG. 2 is an external view of the commander 16. FIG. 3 is a block diagram of the commander 16.
The commander 16 has a thin rectangular parallelepiped shape having a substantially postcard-like planar shape, and its upper surface is an operation surface. FIG. 2 is a plan view showing the operation surface. A liquid crystal display 36 is provided slightly in the center. A touch pad 37 is provided on the upper right side of the display 36. The touch pad 37 is a device for moving a cursor on the display 36 and selecting an object pointed to by the cursor. When the user touches with a fingertip and moves the fingertip, the cursor moves. Further, when the user taps the fingertip lightly, the object pointed to by the cursor is selected.

また、操作面の左辺から下辺にかけてキースイッチ群35が設けられている。キースイッチ群35は、16のキースイッチ41〜56からなっている。操作面の左辺沿いには、ゾーン選択キー41、入力選択キー42、音量アップ/ダウンキー43、44、およびミュートスイッチ45が設けられている。ゾーン選択キー41は、図1に示した4つのゾーンZ1〜Z4の選択画面を表示させるためのキースイッチである。入力選択キー42は、選択されているゾーンで再生するソース機器の選択画面を表示させるためのキースイッチである。音量アップ/ダウンキー43、44およびミュートスイッチ45は、選択されているソース機器で現在再生されているコンテンツ(たとえばオーディオ)の再生音量を上下させたり一時的に消音させるためのキースイッチである。   A key switch group 35 is provided from the left side to the lower side of the operation surface. The key switch group 35 includes 16 key switches 41 to 56. Along the left side of the operation surface, a zone selection key 41, an input selection key 42, volume up / down keys 43 and 44, and a mute switch 45 are provided. The zone selection key 41 is a key switch for displaying the selection screen of the four zones Z1 to Z4 shown in FIG. The input selection key 42 is a key switch for displaying a selection screen for a source device to be played back in the selected zone. The volume up / down keys 43 and 44 and the mute switch 45 are key switches for raising / lowering or temporarily muting the playback volume of content (eg, audio) currently being played back on the selected source device.

ディスプレイ36の下辺に沿って3つのファンクションキー47、48、49が設けられている。ファンクションキー47、48、49は、操作段階に応じて種々の機能が割り当てられる。   Three function keys 47, 48, and 49 are provided along the lower side of the display 36. The function keys 47, 48, and 49 are assigned various functions according to the operation stage.

タッチパッド37の下方には、バックキー51、ホームキー52および種々の演奏制御キー53〜56が設けられている。バックキー51は、ディスプレイ36に表示させる画面を直前のものに戻すためのキースイッチである。また、ホームキー52は、ディスプレイ36に表示させる画面を初期画面に切り換えるキースイッチである。演奏操作キー53〜56は、スタートキー53、ストップキー54、巻き戻しキー55、早送り(スキップ)キー56からなっている。   Below the touch pad 37, a back key 51, a home key 52, and various performance control keys 53 to 56 are provided. The back key 51 is a key switch for returning the screen displayed on the display 36 to the previous screen. The home key 52 is a key switch that switches the screen displayed on the display 36 to the initial screen. The performance operation keys 53 to 56 include a start key 53, a stop key 54, a rewind key 55, and a fast forward (skip) key 56.

図3において、コマンダ16は、CPU31、ROM32、RAM33を有するとともに、無線LANコントローラ34、キースイッチ群35、ディスプレイ36、タッチパッド37を有しており、これらはバスを介して相互に接続されている。ROM32にはこのコマンダ16を制御するためのプログラム等が記憶されている。無線LAN制御部34は、アクセスポイント22を介して被制御機器であるオーディオ機器11〜14と通信し、自己記述ファイルや演奏情報等を受信する。RAM33には、無線LANコントローラ34が受信したオーディオ機器11〜14の自己記述ファイル、演奏情報が記憶される。   In FIG. 3, the commander 16 includes a CPU 31, a ROM 32, and a RAM 33, and also includes a wireless LAN controller 34, a key switch group 35, a display 36, and a touch pad 37, which are connected to each other via a bus. Yes. The ROM 32 stores a program for controlling the commander 16 and the like. The wireless LAN control unit 34 communicates with the audio devices 11 to 14 as controlled devices via the access point 22 and receives a self-describing file, performance information, and the like. The RAM 33 stores self-describing files and performance information of the audio devices 11 to 14 received by the wireless LAN controller 34.

CPU31は、RAM33に記憶された被制御機器の自己記述ファイルに基づき、自装置をその被制御機器を制御するコマンダとしてセットアップする。自己記述ファイル中の「既知の機能」を各機能が割り当てられているキースイッチ群35の各キースイッチ41〜56に対応づけ、それ以外のキースイッチの割り当てがない機能(未知の機能)は、ディスプレイ36に階層化メニューとして表示し、最下層のメニュー項目にコマンドを対応づける。   Based on the self-describing file of the controlled device stored in the RAM 33, the CPU 31 sets up the own device as a commander for controlling the controlled device. The “known functions” in the self-describing file are associated with the key switches 41 to 56 of the key switch group 35 to which each function is assigned, and the other functions (unknown functions) to which no key switch is assigned are as follows: A hierarchical menu is displayed on the display 36, and commands are associated with the menu items at the lowest layer.

図4は、オーディオ機器11〜14のブロック図である。オーディオ機器11〜14は、オーディオ回路部69(11A,12A,13A,14Aに対応)に独自の構成を有するが、制御部60(11B,12B,13B,14Bに対応)の構成はほぼ同様である。制御部60は、CPU61、不揮発性メモリ62、RAM63、LANコントローラ64、操作部65、インタフェース66が相互にバスで接続された構成をしている。不揮発性メモリ62には自己記述ファイルが記憶されている。RAM63には、演奏中のアーティスト名、アルバム名、曲名等の演奏情報が記憶される。LANコントローラ64は、LAN15を介する他の機器(たとえばコマンダ16)と通信する。CPU61は、操作部65の操作やLANコントローラ64が受信した制御コマンドに基づいてオーディオ回路部69の動作を制御する。また、インタフェース66を介してオーディオ回路部69から演奏情報を受け取りRAM63に書き込む。さらに、CPU61は、制御部60をhttpサーバとして機能させ、コマンダ16がhttpのGETメソッドで不揮発性メモリ62上の自己記述ファイルやRAM63上の演奏情報を取得できるようにしている。   FIG. 4 is a block diagram of the audio devices 11 to 14. The audio devices 11 to 14 have an original configuration in the audio circuit unit 69 (corresponding to 11A, 12A, 13A, and 14A), but the configuration of the control unit 60 (corresponding to 11B, 12B, 13B, and 14B) is almost the same. is there. The control unit 60 has a configuration in which a CPU 61, a nonvolatile memory 62, a RAM 63, a LAN controller 64, an operation unit 65, and an interface 66 are connected to each other via a bus. A self-describing file is stored in the nonvolatile memory 62. The RAM 63 stores performance information such as the name of the artist being played, the album name, and the song name. The LAN controller 64 communicates with other devices (for example, the commander 16) via the LAN 15. The CPU 61 controls the operation of the audio circuit unit 69 based on the operation of the operation unit 65 and the control command received by the LAN controller 64. Also, performance information is received from the audio circuit unit 69 via the interface 66 and written into the RAM 63. Further, the CPU 61 causes the control unit 60 to function as an http server so that the commander 16 can acquire a self-describing file on the nonvolatile memory 62 and performance information on the RAM 63 by using the GET method of http.

≪自己記述ファイルの説明≫
自己記述ファイルは、コマンダ16が、被制御機器であるオーディオ機器11〜14を制御可能にするために、オーディオ機器11〜14からコマンダ16に送信されるファイルである。コマンダ16は、自己記述ファイルを受信することにより、少なくとも、そのオーディオ機器の電源(オン/オフ、スリープ設定)、音量(音量レベル、ミュートのオン/オフ)、入力切換(接続されている各種ソース機器の選択)、再生制御(プレイ、ポーズ、ストップなど)、再生情報表示(アーチスト、アルバム名、曲名)、コンテンツブラウズ(コンテンツリスト表示、カーソル操作など)などの制御が可能になる。なお、ここに掲げた機能を「既知の機能」と呼ぶ。
≪Description of self-description file≫
The self-describing file is a file transmitted from the audio devices 11 to 14 to the commander 16 so that the commander 16 can control the audio devices 11 to 14 as controlled devices. By receiving the self-describing file, the commander 16 at least powers the audio device (on / off, sleep setting), volume (volume level, mute on / off), input switching (various connected sources) Device selection), playback control (play, pause, stop, etc.), playback information display (artist, album name, song name), content browsing (content list display, cursor operation, etc.) can be controlled. The functions listed here are referred to as “known functions”.

図5は自己記述ファイルの例を示す図である。自己記述ファイルは、被制御機器であるオーディオ機器11〜14の不揮発性メモリ(ハードディスクやフラッシュメモリ)に記憶され、LAN15上に公開されている。コマンダ16は、そのディレクトリにアクセスすることによって、自由に自己記述ファイルを取り出すことができる。   FIG. 5 shows an example of a self-describing file. The self-describing file is stored in a non-volatile memory (hard disk or flash memory) of the audio devices 11 to 14 that are controlled devices, and is disclosed on the LAN 15. The commander 16 can freely retrieve the self-describing file by accessing the directory.

図5に自己記述ファイルの記述例を示す。同図に示すように自己記述ファイル(Unit Description)は、構造化言語(XML言語)で記述されている。メニュー構造の記述にはMenuタグ<Menu>が用いられる。このMenuタグをネスト(入れ子)させることにより、階層化メニューが表現される。   FIG. 5 shows a description example of the self-describing file. As shown in the figure, the self-description file (Unit Description) is described in a structured language (XML language). A Menu tag <Menu> is used to describe the menu structure. A nested menu is expressed by nesting the Menu tags.

Menuタグ<Menu>は、上記のように自己記述ファイルにおける階層化メニュー記述の基本となるタグであり、タグ内部に複数の属性が記述される。すなわち、Menuタグでメニューの階層構造を構築しながら、属性によりメニューの制御対象や表示形態等の種々の補足情報が付与される。Menuタグ内に記述される属性としては、Title_x属性、Icon属性、List_Type属性、YNC_Tag属性、Func属性などがある。   The Menu tag <Menu> is a tag that is the basis of the hierarchical menu description in the self-describing file as described above, and a plurality of attributes are described inside the tag. That is, various supplementary information such as a menu control target and a display form are given by an attribute while constructing a menu hierarchical structure with a Menu tag. Attributes described in the Menu tag include a Title_x attribute, an Icon attribute, a List_Type attribute, a YNC_Tag attribute, and a Func attribute.

たとえば、図5のMenueタグ101には、属性およびその値として、Func=”Subunit”、Title_1=”Main Zone”およびYNC_Tag=”Main_Zone”が記述され、Menuタグ102には、属性およびその値として、Func=”Vol”、Title_1=”Volume”"およびIcon=”xxxx/yyyy.png”が記述されている。   For example, the Menu tag 101 in FIG. 5 describes Func = “Subunit”, Title_1 = “Main Zone”, and YNC_Tag = “Main_Zone” as attributes and values thereof, and the Menu tag 102 includes attributes and values thereof. , Func = “Vol”, Title_1 = “Volume” ”, and Icon =“ xxxx / yyyy. png "is described.

Title_x属性は、このMenuタグの制御対象機器/機能の名称を表す属性である。1つのMenuタグが複数の言語の表記を想定して複数の名称の属性を持つことがあるため、Title_xのxには1から順の数値が設定される。   The Title_x attribute is an attribute representing the name of the control target device / function of this Menu tag. Since one Menu tag may have a plurality of name attributes assuming a notation in a plurality of languages, a numerical value starting from 1 is set in x of Title_x.

Icon属性は、このMenuタグの制御対象機器/機能のアイコンを指定する属性である。Icon属性は、このメニュー項目のディスプレイ36への表示形態としてアイコンが用いられるとき記述される属性である。アイコンの指定は、ファイル名とそのファイルのパス名によって記載される。たとえば、「Icon="icon/listen.png"」等である。記述されるパスは被制御機器に搭載されるhttpサーバのルートからのパスなので、ここに、その被制御機器のIPアドレスを付加し、httpのGETメソッドでアクセスすることでアイコンの画像ファイルを取得する。上記の「Icon="icon/listen.png"」の例の場合、「GET http://192.168.0.1/icon/listen.png」でアイコンの画像ファイルが取得される。なお、このURL、ファイル名等は一例でありこれに限定されない。   The Icon attribute is an attribute that specifies an icon of a control target device / function of this Menu tag. The Icon attribute is an attribute described when an icon is used as a display form of the menu item on the display 36. The designation of the icon is described by the file name and the path name of the file. For example, “Icon =“ icon / listen.png ””. Since the described path is the path from the root of the http server mounted on the controlled device, add the IP address of the controlled device here, and obtain the icon image file by accessing with the GET method of http To do. In the case of "Icon =" icon / listen.png "" above, the icon image file is acquired by "GET http://192.168.0.1/icon/listen.png". Note that the URL, file name, and the like are merely examples and are not limited thereto.

List_Type属性は、このMenuタグの1つ下の階層のメニューを表示するときに推奨されるリスト形式を記述する属性である。属性値(リスト形式)には、Menu、Icon、Slider、10Keyなどがある。属性値がMenuのとき、通常のリスト表示によるメニュー形式が推奨される。なおこのMenu形式はデフォルトであるため省略可である。属性値がIconのとき、アイコンを用いたメニュー形式が推奨される。このIconが推奨される場合、1つ下の階層のメニュー項目には必ずIcon属性によりアイコンのパスが記述される。属性値がSliderのとき、下層のメニュー項目は数値のメニュー項目であり、スライダによる入力を前提としたメニュー構築が推奨される。また、属性値が10Keyのとき、下層のメニュー項目は数値のメニュー項目であり、テンキー入力によるメニュー構築が推奨される。なお、都合により(ハードウェア・ソフトウェア等の事情で)推奨形式でのメニュー構築・表示が不可能な場合、デフォルトのMenu形式のメニュー表示が行われる。   The List_Type attribute is an attribute that describes a list format recommended when displaying a menu in a hierarchy one level below this Menu tag. The attribute value (list format) includes Menu, Icon, Slider, 10Key, and the like. When the attribute value is Menu, a normal list display menu format is recommended. The Menu format is a default and can be omitted. When the attribute value is Icon, a menu format using icons is recommended. When this Icon is recommended, the icon path is always described by the Icon attribute in the menu item one level below. When the attribute value is Slider, the menu item in the lower layer is a numerical menu item, and it is recommended to construct a menu that assumes input by a slider. When the attribute value is 10 Key, the lower-level menu items are numerical menu items, and it is recommended to construct a menu by numeric keypad input. If it is not possible to construct and display a menu in the recommended format for convenience (due to hardware, software, etc.), a default menu format menu is displayed.

YNC_Tag属性は、制御対象ゾーンまたは制御対象機器の名称が記述される属性である。この属性が記述されたMenuタグ以下の記述は、この属性の名称を有するゾーンまたはソース機器に関する記述である事を示す。Func属性は、制御対象機能を表す属性である。Func属性の値は、他種類にわたり階層化されている。図6にMenuタグのFunc属性の値の例を示しておく。   The YNC_Tag attribute is an attribute in which the name of the control target zone or the control target device is described. The description below the Menu tag in which this attribute is described indicates that the description is related to the zone or source device having the name of this attribute. The Func attribute is an attribute that represents a control target function. The value of the Func attribute is hierarchized over other types. FIG. 6 shows an example of the value of the Func attribute of the Menu tag.

図7は、自己記述ファイルの記述のうち、最下層メニューの記述の一部を示す図である。また、図8は、この自己記述ファイルのMenuタグ中のTitle_x属性を書き出して構成したメニューの例を示す図である。この最下層メニューは、たとえば図5のMenuタグ102の最下層として記述されるものである。最下層メニューでは、利用者の操作に応じたコマンドを発行するためにMenuタグのほか、Cmdタグ<Cmd>、Cmd_List<Cmd_List>タグ、Param_xタグ<Param_x>等のタグを用いた記述が行われている。   FIG. 7 is a diagram showing a part of the description of the lowest menu among the descriptions of the self-description file. FIG. 8 is a diagram showing an example of a menu configured by writing the Title_x attribute in the Menu tag of the self-describing file. This bottom layer menu is described as the bottom layer of the Menu tag 102 in FIG. 5, for example. In the lowermost menu, in order to issue a command according to the user's operation, description using tags such as Cmd tag <Cmd>, Cmd_List <Cmd_List> tag, Param_x tag <Param_x> is performed in addition to the Menu tag. ing.

Cmdタグは、コマンド発行を指示するタグであり、発行されるコマンド(この例ではPUTコマンド)のIDが記述される。
図7に示すように、Cmdタグ要素105には必ず“Param_x”という文字列が記述され、これと同名のタグであるParam_xタグがCmdタグに引き続いて記述される。このParam_xタグ要素106にメニューの最下位項目として選択可能なパラメータが記述される。なお、Param_xタグは、複数記述されることがあるため識別のためxには1から順の数字を設定される。Param_xタグの下層には以下のタグが少なくとも1つ配置される。
The Cmd tag is a tag for instructing command issuance, and describes the ID of the issued command (PUT command in this example).
As shown in FIG. 7, a character string “Param_x” is always described in the Cmd tag element 105, and a Param_x tag having the same name as this is described following the Cmd tag. In the Param_x tag element 106, parameters that can be selected as the lowest item of the menu are described. Since a plurality of Param_x tags may be described, a number in order from 1 is set for x for identification. At least one of the following tags is arranged below the Param_x tag.

Directタグ<Direct>は、パラメータを直接記述する場合に用いられるタグであり、開始タグに続いてパラメータの文字列が記述される。Directタグは、Param_xタグの領域内に必要数記述される。図7のMute制御では、Directタグで「On」、「Off」の2つのパラメータが記述されている。また、Drectタグには、Title_x属性やIcon属性を伴う場合がある。Title_x属性は、そのパラメータの名称を表す属性であり、Iconタグは、そのパラメータ(制御内容)をメニュー項目としてディスプレイ36に表示するときアイコンとして表示する場合のアイコン画像を指定する属性である。   The Direct tag <Direct> is a tag used when a parameter is directly described, and a parameter character string is described following the start tag. The required number of Direct tags is described in the Param_x tag area. In the mute control in FIG. 7, two parameters “On” and “Off” are described in the Direct tag. In addition, the Direct tag may be accompanied by a Title_x attribute or an Icon attribute. The Title_x attribute is an attribute that represents the name of the parameter, and the Icon tag is an attribute that specifies an icon image when the parameter (control content) is displayed as an icon when the parameter is displayed on the display 36 as a menu item.

Rangeタグ<Range>は、パラメータの範囲とステップを記述するとき用いられるタグであり、「<開始値>,<終了値>,<ステップ>」の形式で記述される。メニューには、開始値から終了値までの間のステップ刻みの数値リストが表示される。図7の音量Level制御では、開始値=−80.5dB、終了値=16.5dB、ステップ=0.5dBとなっており、メニューには、−80.5dB〜16.5dBまでの間の0.5dB刻みのゲイン値がメニュー項目としてリスト表示される。
また、これ以外にも、Textタグ<Text>(パラメータの文字数範囲と文字タイプを記述するためのタグ)、Indirectタグ<Indirect>(パラメータをGETコマンドで取得する場合のタグ)がある。
The Range tag <Range> is a tag used when describing a parameter range and step, and is described in the format of “<start value>, <end value>, <step>”. The menu displays a list of numerical values in steps from the start value to the end value. In the volume level control in FIG. 7, the start value = −80.5 dB, the end value = 16.5 dB, and the step = 0.5 dB, and the menu includes 0 to −80.5 dB to 16.5 dB. Gain values in increments of .5 dB are listed as menu items.
In addition, there are a Text tag <Text> (a tag for describing the character number range and character type of the parameter) and an Indirect tag <Indirect> (a tag for acquiring a parameter with the GET command).

コマンダ16においては、ミュートのオン/オフをキースイッチ(ミュートキー)45に割り当て、−80.5dB〜16.5dBの音量制御をキースイッチ(音量アップ/ダウンキー)43,44に割り当てている。
ミュートキー45はトグル動作であるため、ミュートオン/オフの機能をミュートキー45に割り当てるときGETコマンドで被制御機器(メインゾーン)のミュートオン/オフの状態を取得する。その後ミュートキー45がオンされると、そのときの状態と反対の状態を設定するためのコマンドを発行する。
ミュートオンのコマンドは、たとえば「Main_Zone,Vol_Control,Mute,On」の文字列をXML形式に変換したものである。
また、音量アップ/ダウンキー43,44は現在値から1ステップ増加/減少を指示するキースイッチであるため、音量制御の機能を音量アップ/ダウンキー43,44に割り当てるときGETコマンドで被制御機器の音量レベル値を取得する。その後音量アップ/ダウンキー43,44がオンされると、そのときの音量値から1ステップ増加/減少させた音量レベル値をパラメータとするコマンドを発行する。
音量レベル制御のコマンドは、たとえば「Main_Zone,Vol_Control,Level,-25.0」の文字列をXML形式に変換したものである。
In the commander 16, mute on / off is assigned to the key switch (mute key) 45, and volume control of −80.5 dB to 16.5 dB is assigned to the key switches (volume up / down keys) 43, 44.
Since the mute key 45 is a toggle operation, when the mute on / off function is assigned to the mute key 45, the mute on / off state of the controlled device (main zone) is acquired by the GET command. Thereafter, when the mute key 45 is turned on, a command for setting a state opposite to the current state is issued.
The mute-on command is obtained, for example, by converting a character string “Main_Zone, Vol_Control, Mute, On” into an XML format.
The volume up / down keys 43 and 44 are key switches for instructing to increase / decrease the current value by one step. Therefore, when a volume control function is assigned to the volume up / down keys 43 and 44, the GET command can be used to Get the volume level value. Thereafter, when the volume up / down keys 43 and 44 are turned on, a command is issued with a volume level value that is increased or decreased by one step from the current volume value as a parameter.
The volume level control command is obtained by converting, for example, a character string “Main_Zone, Vol_Control, Level, −25.0” into an XML format.

ここで、GETコマンドとは、GETタグによって発行されるコマンドであり、被制御機器から何らかの情報を得るときに発行される。   Here, the GET command is a command issued by a GET tag, and is issued when obtaining some information from the controlled device.

図7に示しているCmd_Listタグ<Cmd_List>には、実際に発行されるコマンドが記述される。Cmd_Listタグは、Menuタグのうち、Func=”Subunit”またはFunc=”Source_Device”属性毎に1つだけ記述される。記述位置は、そのタグの1階層下の末尾となり、影響範囲はそのタグ以下全体となる。   The Cmd_List tag <Cmd_List> shown in FIG. 7 describes commands that are actually issued. Of the Menu tags, only one Cmd_List tag is described for each Func = “Subunit” or Func = “Source_Device” attribute. The description position is the end of the tag one level below, and the affected range is the entire tag and below.

Cmd_Listタグ要素107内の下の階層には必ずDefineタグ<Define>が1または複数配置される。Defineタグ108は、必ずID属性を伴い、このID属性によって、以下に記述されるコマンドが特定される。上述したように、Cmdタグ側では、このIDを指定する事で発行するコマンドが指定される。   One or more Define tags <Define> are always arranged in the lower hierarchy in the Cmd_List tag element 107. The Define tag 108 always has an ID attribute, and a command described below is specified by the ID attribute. As described above, on the Cmd tag side, a command to be issued is specified by specifying this ID.

図7に示すように、Defineタグは、Cmd_Listタグ要素107に少なくとも1個、通常は複数記述され、それぞれIDで識別されるコマンド(コマンド本体)が記述される。なお、コマンドはコンマ区切りで記述され、発行時はXML形式に変換される。   As shown in FIG. 7, at least one Define tag is normally described in the Cmd_List tag element 107, and usually a plurality of Def tags are described, and commands (command bodies) each identified by an ID are described. Note that commands are described in comma delimiters, and are converted to XML format when issued.

このように、階層化されたメニューの最下層にはコマンドを発行するための記述があり、実際に発行されるコマンドはCmd_Listの領域内に記載され、Cmdタグの属性で指定されたコマンド本体とCmdタグの領域内に記載されるパラメータの組み合わせからなっている。一般的に1つのコマンド本体には複数の(場合によっては多数の)パラメータが付属するため、1つのコマンド本体で多種類のコマンドの発行が可能になる。   As described above, there is a description for issuing a command at the lowest layer of the hierarchical menu, and the actually issued command is described in the Cmd_List area, and the command body specified by the attribute of the Cmd tag and It consists of a combination of parameters described in the Cmd tag area. In general, since one command body is accompanied by a plurality of parameters (in some cases, a large number), a single command body can issue various types of commands.

また、図9は、自己記述ファイルの他の一部であり、FKeyタグ<FKey>が記述されている箇所の示す図である。   FIG. 9 shows another part of the self-describing file and a part where the FKey tag <FKey> is described.

FKeyタグは、特定の機能をファンクションキー47、48、49に割り当てる際に用いられるタグである。FKeyタグは、Func="Subunit"またはFunc="Source_Device"属性を有するMenuタグ毎に記述される。記述位置は、同属性を有するMenuタグの1階層下の末尾となり、影響範囲はそのMenuタグ以下全体となる。   The FKey tag is a tag used when assigning a specific function to the function keys 47, 48, and 49. The FKey tag is described for each Menu tag having the Func = "Subunit" or Func = "Source_Device" attribute. The description position is the end of the menu tag one level lower than the menu tag having the same attribute, and the influence range is the whole of the menu tag and below.

FKeyタグの下の階層には以下のタグが配置される。
Pathタグ<Path>は、FKeyタグによるファンクションキー47、48、49への機能割り当ての有効範囲(パス)を記述するためのタグである。パスは、Fkeyタグの階層からの相対パスで表現される。なお、このPathタグが空タグならば、Pathタグが属するMenuタグの範囲全体を示している。
The following tags are arranged in the hierarchy below the FKey tag.
The Path tag <Path> is a tag for describing an effective range (path) of function assignment to the function keys 47, 48, and 49 by the FKey tag. The path is expressed as a relative path from the hierarchy of the Fkey tag. If this Path tag is an empty tag, it indicates the entire range of the Menu tag to which the Path tag belongs.

F1タグ<F1>は、ファンクションキー47(F1キー)に割り当てる機能すなわちメニュー項目のショートカットパスを記述するためのタグである。F2タグ<F2>は、ファンクションキー48(F2キー)に割り当てる機能すなわちメニュー項目のショートカットパスを記述するためのタグである。F3タグ<F3>は、ファンクションキー49(F3キー)に割り当てる機能すなわちメニュー項目のショートカットパスを記述するためのタグである。パスは、Fkeyタグの階層からの相対パスで表現され、その記述形式は、ダブルクォート「"」で囲まれ、コンマで区切られている。F1,F2またはF3タグが、空F1,F2またはF3タグが、記述されなかった場合、そのタグに対応するファンクションキーに機能(パス)を割り当てないこと表すものとする。   The F1 tag <F1> is a tag for describing a function assigned to the function key 47 (F1 key), that is, a shortcut path of a menu item. The F2 tag <F2> is a tag for describing a function assigned to the function key 48 (F2 key), that is, a shortcut path of a menu item. The F3 tag <F3> is a tag for describing a function assigned to the function key 49 (F3 key), that is, a shortcut path of a menu item. The path is expressed as a relative path from the hierarchy of the Fkey tag, and the description format is surrounded by double quotes ““ ”and separated by commas. When the F1, F2 or F3 tag is not described, and the empty F1, F2 or F3 tag is not described, it is assumed that the function (path) is not assigned to the function key corresponding to the tag.

また、FKeyタグは、Func="Subunit"またはFunc="Source_Device"属性を有するMenuタグ毎に複数記述することができる。各FKeyタグは、Pathタグに記述された範囲で有効であり、複数のFKeyタグの範囲が重なっている領域は、後に記述されているFKeyタグが有効となる。   A plurality of FKey tags can be described for each Menu tag having the Func = "Subunit" or Func = "Source_Device" attribute. Each FKey tag is effective in the range described in the Path tag, and the FKey tag described later is effective in an area where the ranges of a plurality of FKey tags overlap.

図9の場合、FKeyタグの記述111は、Pathタグが空タグであるため、Menuタグの記述110全体を有効範囲としているが、その後に記述されているFKeyタグの記述112は、Pathタグで"Play Info"を有効範囲としているため、後の記述111のPathタグの記述が有効となり、記述111は"Play Info"に適用され、記述110は、"Play Info"以外のMenuタグ領域に適用される。   In the case of FIG. 9, the description 111 of the FKey tag has the valid range of the entire description 110 of the Menu tag because the Path tag is an empty tag, but the description 112 of the FKey tag described thereafter is a Path tag. Since “Play Info” is in the valid range, the description of the Path tag of the later description 111 is valid, the description 111 is applied to “Play Info”, and the description 110 is applied to the Menu tag area other than “Play Info”. Is done.

記述110によれば、F1キー(ファンクションキー47)には、ディスプレイ36に演奏情報"Play Info"を表示させる機能が割り当てられ、F2キー(ファンクションキー48)には、演奏を繰り返させる"Repeat"機能が割り当てられ、F3キー(ファンクションキー49)には、曲順をランダムに演奏させる"Shuffle"機能が割り当てられる。   According to the description 110, a function for displaying performance information “Play Info” on the display 36 is assigned to the F1 key (function key 47), and “Repeat” for repeating the performance is assigned to the F2 key (function key 48). A function is assigned, and the “Shuffle” function for randomly playing the music order is assigned to the F3 key (function key 49).

また、記述111によれば、"Play Info"の表示中に、F1キー(ファンクションキー47)には、ディスプレイ36にプレイリスト表示して演奏曲を調整する"List Control"機能が割り当てられ、F2キー(ファンクションキー48)には、ルートパスであるメニューをディスプレイ36に表示させる機能が割り当てられ、F3キー(ファンクションキー49)には機能が割り当てられない。   Further, according to the description 111, while “Play Info” is displayed, the “List Control” function for adjusting the performance music by displaying the playlist on the display 36 is assigned to the F1 key (function key 47), and F2 The key (function key 48) is assigned a function for displaying a menu as a root path on the display 36, and the function is not assigned to the F3 key (function key 49).

≪階層化メニューの説明≫
上に説明した自己記述ファイルで表現される階層化メニューの一部を図示すると図10のようになる。メインゾーン(Main Zone)の下位に入力選択(Input)、音量制御(Volume)、電源制御(Power Control)のメニューがツリー状に配置されている。音量制御の下位には、音量レベル制御(Level)、ミュート制御(Mute)メニューがツリー状に配置されている。また、電源制御の下位には、電源オン/オフ制御(Power)、スリープ設定(Sleep)のメニューがツリー状に配置されている。各ツリーの最下位のメニュー項目には複数のパラメータが準備されており、利用者の操作内容およびそのときの被制御機器の状態に応じたパラメータが選択される。そして、その最下位のメニュー項目のコマンド本体と選択されたパラメータが組み合わされてコマンドが構成され、被制御機器であるオーディオ機器に向けて発行(送信)される。
≪Explanation of hierarchical menu≫
A part of the hierarchical menu expressed by the self-description file described above is shown in FIG. Below the main zone (Main Zone), menus for input selection (Input), volume control (Volume), and power supply control (Power Control) are arranged in a tree shape. Below the volume control, volume level control (Level) and mute control (Mute) menus are arranged in a tree shape. In addition, under the power control, a menu of power on / off control (Power) and sleep setting (Sleep) is arranged in a tree shape. A plurality of parameters are prepared for the menu item at the lowest level of each tree, and a parameter corresponding to the user's operation content and the state of the controlled device at that time is selected. Then, the command body of the lowest menu item and the selected parameter are combined to form a command, which is issued (transmitted) to the audio device that is the controlled device.

各メニュー項目に対して以下のようなパラメータが準備されている。メニュー項目の入力選択(Input)に対しては、Tuner、DVD、・・、VCRの値が準備されている。各パラメータは、このAVレシーバに接続されているソース機器に対応している。メニュー項目の音量レベル制御(Level)には、−80.5dBから16.5dBまで0.5dB刻みの値が準備されている。メニュー項目のミュート制御(Mute)に対してはOn、Offの値が準備されている。メニュー項目の電源オン/オフ制御(Power)に対してはOn、Standbyの値が準備されている。また、メニュー項目のスリープ設定(Sleep)に対してはLast、120、90、60、30、Offの値が準備されている。各パラメータは、電源がオフされるまでの時間(分)に対応しており、Offはスリープ機能をオフして電源オンを継続させる設定、Lastは前回のスリープ設定をそのまま用いる設定に対応している。なお、上記パラメータのうち入力選択に関してはコマンドで取得してXMLに動的にマージ(間接マージ)することもできる。   The following parameters are prepared for each menu item. For menu item input selection (Input), Tuner, DVD,..., VCR values are prepared. Each parameter corresponds to a source device connected to the AV receiver. For the volume level control (Level) of the menu item, values in increments of 0.5 dB from -80.5 dB to 16.5 dB are prepared. On and Off values are prepared for the menu item mute control (Mute). On and standby values are prepared for the power on / off control (Power) of the menu item. For the menu item sleep setting (Sleep), the values of Last, 120, 90, 60, 30, and Off are prepared. Each parameter corresponds to the time (minutes) until the power is turned off, Off is a setting for turning off the sleep function and continuing the power on, and Last is a setting for using the previous sleep setting as it is. Yes. Of the above parameters, regarding input selection, it can be acquired by a command and dynamically merged into XML (indirect merging).

上記構造の階層化メニューを、階層ごとにディスプレイ36に表示すれば、メニューツリーを辿っていく操作で被制御機器の全ての機能を制御することができる。ただし、上述した「既知の機能」の制御は、キースイッチ41〜56に割り当てられ、階層化メニューを辿らなくてもキースイッチ41〜56のいずれかを操作することにより、即座に直接的に制御できるようになっている。そして、キースイッチ41〜56に割り当てられた「既知の機能」は、ディスプレイ36に表示される階層化メニューから削除され、階層化メニューの簡素化を実現している。   If the hierarchical menu having the above structure is displayed on the display 36 for each hierarchy, all functions of the controlled device can be controlled by an operation of tracing the menu tree. However, the control of the above-mentioned “known function” is assigned to the key switches 41 to 56, and can be directly and directly controlled by operating any of the key switches 41 to 56 without following the hierarchical menu. It can be done. Then, the “known functions” assigned to the key switches 41 to 56 are deleted from the hierarchical menu displayed on the display 36, and the hierarchical menu is simplified.

ここで、「既知の機能」とは「自己記述ファイルの説明」の冒頭に示した機能群であり、電源オン/オフやプレイスタート/ストップ等のどの機器にも適用されるような一般的・汎用的な機能のことである。既知の機能のコマンドを発行するMenuタグには、どの被制御機器の自己記述ファイルにおいても同一の統一されたTitle_x属性が与えられている。一方、コマンダ16のROM32には各キースイッチ41〜56に割り当てる機能の名称(Title)が記憶されている。CPU31はROM32に記憶しているTille_xとMenuタグのTitle_x属性とを対比し、対応する機能のコマンドを各キースイッチ41〜56に割り当てる。   Here, “known functions” is a group of functions shown at the beginning of “Explanation of self-description file”, and is generally applied to any devices such as power on / off and play start / stop. It is a general-purpose function. The Menu tag that issues a command of a known function is given the same unified Title_x attribute in the self-description file of any controlled device. On the other hand, the ROM 32 of the commander 16 stores the names of functions (Title) assigned to the key switches 41 to 56. The CPU 31 compares the Tile_x stored in the ROM 32 with the Title_x attribute of the Menu tag, and assigns a command of a corresponding function to each key switch 41 to 56.

図10はオーディオ機器の一つであるAVレシーバ11の自己記述ファイルの最上位の一部を示したものであるが、AVレシーバ11以外のオーディオ機器の階層化メニューの一例を図11に示しておく。なお、この図でPlayInfoは、階層化メニューではなく、GET機能で取得することができる被制御機器の動作状態データである。   FIG. 10 shows a part of the highest level of the self-describing file of the AV receiver 11 which is one of the audio devices. FIG. 11 shows an example of a hierarchical menu of audio devices other than the AV receiver 11. deep. In this figure, PlayInfo is not a hierarchical menu, but operation state data of the controlled device that can be acquired by the GET function.

図10の階層化メニューでは、メニュー項目Inputが最下層であり、ソース機器が選択されたときコマンドを発行してメニューツリーが終了する。ただし、本実施形態のコマンダ16は、メニュー項目Inputでソース機器が選択されると、その選択されたソース機器から自己記述ファイルを受信して、そのソース機器のメニュー項目に制御をジャンプさせる。   In the hierarchical menu of FIG. 10, the menu item Input is the lowest layer, and when a source device is selected, a command is issued and the menu tree is terminated. However, when a source device is selected by the menu item Input, the commander 16 of the present embodiment receives a self-describing file from the selected source device, and jumps control to the menu item of the source device.

図12は、AVレシーバ(メインゾーン)の階層化メニューとソース機器(tuner)の階層化メニューとのリンク形態を示す図である。メインゾーンのメニュー項目Inputでチューナ13が選択された場合、コマンダ16はAVレシーバ11の制御部11Bから取得した自己記述ファイルを解析して内蔵のチューナ11Cの演奏情報(図11(B)参照))を取得し、この演奏情報をディスプレイ36に表示する。こののち、メニュー表示(制御対象)をチューナ11Cにジャンプさせる(図11(A)参照)。   FIG. 12 is a diagram showing a link form between the hierarchical menu of the AV receiver (main zone) and the hierarchical menu of the source device (tuner). When the tuner 13 is selected in the menu item Input of the main zone, the commander 16 analyzes the self-describing file acquired from the control unit 11B of the AV receiver 11 and performs the performance information of the built-in tuner 11C (see FIG. 11B). ) And the performance information is displayed on the display 36. After that, the menu display (control target) is jumped to the tuner 11C (see FIG. 11A).

一方、メニュー項目Inputで外部のソース機器、たとえばPC14が選択された場合、コマンダ16はPC14の制御部14Bにアクセスして、演奏情報(図11(D)参照)を取得し、このソース機器の現在の動作状態をディスプレイ36に表示する。こののち、PC14の制御部14Bから自己記述ファイルを取得してPC14の音楽再生機能を制御するメニューを表示して(図11(C)参照)、PC14用のコマンダとして自己をセットアップする。   On the other hand, when an external source device such as the PC 14 is selected in the menu item Input, the commander 16 accesses the control unit 14B of the PC 14 to obtain performance information (see FIG. 11D), and this source device's The current operating state is displayed on the display 36. Thereafter, a self-describing file is acquired from the control unit 14B of the PC 14, a menu for controlling the music playback function of the PC 14 is displayed (see FIG. 11C), and the self is set up as a commander for the PC 14.

このように、複数の被制御機器で、階層化メニューをリンクさせていることにより、複数の機器間で関連するメニュー項目を操作する場合に利用者の操作性を向上させることができる。   Thus, by linking the hierarchical menu with a plurality of controlled devices, it is possible to improve the operability of the user when operating related menu items between the plurality of devices.

≪コマンダの動作の説明≫
図13のフローチャート、図14のディスプレイ36の表示例を参照して、コマンダ16の動作を説明する。
まず、図13(A)はゾーン選択キー41がオンされたときの動作を示すフローチャートである。利用者がいずれかのゾーン(部屋)内でコマンダ16を操作するとき、最初にゾーン選択キー41をオンする。ゾーン選択キー41がオンされると(S1)、アクセスポイント22を経由してLAN15にアクセスし、通信可能なオーディオ機器を検索する(S2)。発見したオーディオ機器のなかから、AVレシーバを全て選択し、選択されたAVレシーバの自己記述ファイルおよび演奏情報を取得する(S3)。取得した自己記述ファイルおよび演奏情報に基づき、ゾーン構成および各ゾーンで演奏中の曲を割り出す(S4)。各ゾーンのアイコンをそのゾーンを担当するAVレシーバから取得してメニュー画面を編集する(S5)。そしてこの画面をゾーン選択画面(図14(A))として表示する(S6)。
≪Description of commander operation≫
The operation of the commander 16 will be described with reference to the flowchart of FIG. 13 and the display example of the display 36 of FIG.
First, FIG. 13A is a flowchart showing an operation when the zone selection key 41 is turned on. When the user operates the commander 16 in any zone (room), the zone selection key 41 is first turned on. When the zone selection key 41 is turned on (S1), the LAN 15 is accessed via the access point 22 and a communicable audio device is searched (S2). All AV receivers are selected from the found audio devices, and the self-description file and performance information of the selected AV receivers are acquired (S3). Based on the acquired self-describing file and performance information, the zone composition and the song being played in each zone are determined (S4). The icon of each zone is acquired from the AV receiver in charge of that zone, and the menu screen is edited (S5). Then, this screen is displayed as a zone selection screen (FIG. 14A) (S6).

なお、自己記述ファイルの取得はhttpのGETメソッドで取得すればよい。たとえば「GET http://192.168.0.1/RemoteControl/UnitDesc.xml」などである。なおこのIPアドレスは例であり、実際には、各オーディオ機器のアドレスが指定される。また、アイコンの取得もhttpのGETメソッドで取得すればよい。たとえば「GET http://192.168.0.1/icon/listen.png」などである。なおこのIPアドレスは例であり、実際には、各オーディオ機器のアドレスが指定される。   The self-describing file may be acquired using the GET method of http. For example, “GET http://192.168.0.1/RemoteControl/UnitDesc.xml”. Note that this IP address is an example, and the address of each audio device is actually specified. In addition, the icon may be acquired using the GET method of http. For example, “GET http://192.168.0.1/icon/listen.png”. Note that this IP address is an example, and the address of each audio device is actually specified.

上記S6で表示されるゾーン選択画面の表示例を図14(A)に示す。この図では、左側に4つのゾーン(Living,Bed Room,Kids Room,Kitchen)が表示され、その右側に各ゾーンで演奏中の曲情報(曲名、歌手名)が表示されている。利用者は、タッチパッド37でカーソルを操作し、所望のゾーンの位置でクリックすることにより、そのゾーンを選択することができる。通常、利用者は自分が居るゾーン(部屋)を選択する。   A display example of the zone selection screen displayed in S6 is shown in FIG. In this figure, four zones (Living, Bed Room, Kids Room, and Kitchen) are displayed on the left side, and music information (song name and singer name) being played in each zone is displayed on the right side. The user can select the zone by operating the cursor with the touch pad 37 and clicking at the desired zone position. Usually, the user selects a zone (room) in which the user is present.

上記ゾーンの選択が行われると、コマンダ16は、図13(B)の処理を実行する。
図13(B)において、ゾーンの選択が行われると(S10)、選択されたゾーンを担当するAVレシーバと通信して自己記述ファイルを受信する(S11)。なお、S3で受信した自己記述ファイルを保存していれば、S11の再度自己記述ファイル取得処理は不要である。受信した自己記述ファイルに含まれるメニュー項目のうち、上述の「既知の機能」を制御するメニュー項目をキースイッチ41〜46、50〜56に割り当てるとともに、FKeyタグにより指定されたメニュー項目(ショートカット)をファンクションキー47〜49に割り当てる(S12)。次に上記キースイッチ41〜46、50〜56に割り当てられた「既知の機能」を除いて(未知の機能のみで)メニューツリーを再構築する(S13)。このとき、被制御機器であるAVレシーバから音量レベル値やミュートのオン/オフなどの動作状態を取得し、メニュー項目が選択されたとき、または、キースイッチ41〜56が操作されたときどのパラメータを用いてコマンドを発行するかを設定する(S14)。たとえば現在値がミュートOnであれば、ミュートキー45がオンされたときミュートOffのコマンドを発行するように設定する。そして、選択されたゾーンの最上位のメニューである入力選択画面を編集する(S15)。なお、このとき、入力選択画面はアイコンによるリスト表示形式が推奨されているため、選択されたゾーンを担当するAVレシーバにアクセスして各入力のソース機器のアイコンを取得する。取得したアイコンを用いた入力選択画面(図14(B))をディスプレイ36に表示する(S16)。
When the zone is selected, the commander 16 executes the process shown in FIG.
In FIG. 13B, when a zone is selected (S10), the self-description file is received by communicating with the AV receiver in charge of the selected zone (S11). If the self-describing file received in S3 is stored, the self-describing file acquisition process in S11 is unnecessary. Among the menu items included in the received self-describing file, the menu item for controlling the above-mentioned “known function” is assigned to the key switches 41 to 46 and 50 to 56, and the menu item (shortcut) designated by the FKey tag. Are assigned to the function keys 47 to 49 (S12). Next, the menu tree is reconstructed (with only unknown functions) except for the “known functions” assigned to the key switches 41 to 46 and 50 to 56 (S13). At this time, an operation state such as a volume level value and mute on / off is obtained from an AV receiver as a controlled device, and which parameter is selected when a menu item is selected or when the key switches 41 to 56 are operated. Is used to set whether to issue a command (S14). For example, if the current value is mute On, the mute Off command is set to be issued when the mute key 45 is turned on. Then, the input selection screen, which is the top menu of the selected zone, is edited (S15). At this time, since the list display format using icons is recommended for the input selection screen, the AV receiver in charge of the selected zone is accessed to acquire the source device icon for each input. An input selection screen (FIG. 14B) using the acquired icon is displayed on the display 36 (S16).

なお、利用者によって入力選択キー(MUSICキー)が押下された場合には、既に自己記述ファイルの取得等の処理が終了しているため、S15の処理から実行される。   If the input selection key (MUSIC key) is pressed by the user, the process such as acquisition of the self-describing file has already been completed.

上記S15で表示される入力選択画面の例を図14(B)に示す。この図では、6個のソース機器(Net MusicService,Internet Radio,PC Contents,Bluetooth,USB,Silicon Audio)が選択可能になっている。利用者は、タッチパッド37でカーソルを操作し、所望のソース機器の位置でクリックすることにより、そのソース機器を選択することができる。   An example of the input selection screen displayed in S15 is shown in FIG. In this figure, six source devices (Net Music Service, Internet Radio, PC Contents, Bluetooth, USB, and Silicon Audio) can be selected. The user can select the source device by operating the cursor with the touch pad 37 and clicking at the position of the desired source device.

利用者が、ディスプレイ36に表示されているソース機器のいずれかを選択すると、コマンダ16は、制御対象のオーディオ機器をその選択されたソース機器に切り換えて図13(C)の動作を実行する。なお、制御対象のオーディオ機器が自己記述ファイルを持たないものである場合、コマンダ16は、AVレシーバからそのオーディオ機器に関する記述ファイルを受信してもよく、また、AVレシーバ経由でそのオーディオ機器を制御するようにしてもよい。   When the user selects one of the source devices displayed on the display 36, the commander 16 switches the audio device to be controlled to the selected source device and executes the operation of FIG. If the audio device to be controlled does not have a self-describing file, the commander 16 may receive a description file related to the audio device from the AV receiver, and control the audio device via the AV receiver. You may make it do.

図14(B)に示した入力選択画面でソース機器が選択されると(S20)、選択されたソース機器と通信し、自己記述ファイルを受信するとともに演奏情報(Play Info)を取得する(S21)。そしてディスプレイ36に、図14(C)に示すようなPlay Info画面を表示するとともに(S22)、受信した自己記述ファイルに含まれるメニュー項目のうち既知の機能」を制御するメニュー項目をキースイッチ41〜46、50〜56に割り当てるとともに、FKeyタグにより指定されたメニュー項目(ショートカット)をファンクションキー47〜49に割り当てる(S23)。次に上記キースイッチ41〜46、50〜56に割り当てられた「既知の機能」を除いて(未知の機能のみで)メニューツリーを再構築する(S24)。同時に、被制御機器であるソース機器から動作状態を取得し、メニュー項目の選択やキースイッチのオンに対応してどのパラメータを用いてコマンドを発行するかを設定する(S25)。こののち、バンドや周波数のコントロールを可能にする。
なお、選択されたソース機器が、AVレシーバに内蔵のチューナであった場合、S21では新たに自己記述ファイル、演奏情報を取得する必要はなく、既に取得しているAVレシーバの自己記述ファイルからチューナに関する記述を解析して取り出せばよい。
When a source device is selected on the input selection screen shown in FIG. 14B (S20), it communicates with the selected source device, receives a self-describing file, and acquires performance information (Play Info) (S21). ). Then, a Play Info screen as shown in FIG. 14C is displayed on the display 36 (S22), and a menu item for controlling a “known function” among the menu items included in the received self-describing file is displayed on the key switch 41. The menu item (shortcut) specified by the FKey tag is assigned to the function keys 47 to 49 (S23). Next, the menu tree is reconstructed (with only unknown functions) except for the “known functions” assigned to the key switches 41 to 46 and 50 to 56 (S24). At the same time, the operating state is acquired from the source device as the controlled device, and it is set which parameter is used to issue the command in response to the selection of the menu item or the key switch being turned on (S25). After this, the band and frequency can be controlled.
When the selected source device is a tuner built in the AV receiver, it is not necessary to newly acquire a self-describing file and performance information in S21, and the tuner is already acquired from the self-describing file of the AV receiver. Analyze the description about and retrieve it.

このように上記実施形態では、−80.5dB〜16.5dBのパラメータを音量アップ/ダウンキー43,44に対応づけ、音量アップキー43がオンされた場合には、現在の音量値から1ステップ大きいパラメータでコマンドを生成するようにし、音量ダウンキー44がオンされた場合には、現在の音量値から1ステップ小さいパラメータでコマンドを発行するようにしている。これにより、コマンド本体に多数のパラメータが付属している場合でも、キースイッチまたはメニュー項目を簡略化することができる。   As described above, in the above embodiment, the parameter of −80.5 dB to 16.5 dB is associated with the volume up / down keys 43 and 44, and when the volume up key 43 is turned on, one step from the current volume value. A command is generated with a large parameter, and when the volume down key 44 is turned on, a command is issued with a parameter one step smaller than the current volume value. Thereby, even when a large number of parameters are attached to the command body, the key switch or the menu item can be simplified.

なお、この逆も可能である。すなわち、コマンド本体に付属するパラメータがUP/DOWNであった場合に、コマンドで制御可能な範囲の全ての値(たとえば、1,2,…,9,10)をメニュー項目としてリスト表示し、目的の数値を選択することによるダイレクトな制御を可能にしてもよい。メニュー項目の表示形態は、たとえばプルダウンメニューのような形態を採用すればよい。   The reverse is also possible. That is, when the parameter attached to the command body is UP / DOWN, all values in the range controllable by the command (for example, 1, 2,. Direct control may be made possible by selecting these numerical values. For example, the menu item display form may be a pull-down menu.

以上の実施形態では、「既知の機能」をハードウェアであるキースイッチに対応づけて、階層化メニュー(メニューツリー)から削除しているが、必ずしも削除する必要はなく、「既知の機能」をキースイッチ、階層化メニューの両方で操作可能にしてもよい。   In the above embodiment, “known function” is associated with the key switch that is hardware and deleted from the hierarchical menu (menu tree). However, it is not always necessary to delete the “known function”. Operation may be performed using both the key switch and the hierarchical menu.

以上の実施形態では、コマンダ16は無線LANでネットワークに接続する構成になっているが、有線LANでネットワークに接続する構成であっても構わない。
また、この実施形態では各被制御機器とコマンダがネットワークを介して接続されるような形態になっているが、図15に示すように、各被制御機器とコマンダとがそれぞれ個別に通信する形態であっても本発明は適用可能である。
In the above embodiment, the commander 16 is configured to be connected to the network via a wireless LAN, but may be configured to be connected to the network via a wired LAN.
In this embodiment, each controlled device and the commander are connected via a network. However, as shown in FIG. 15, each controlled device and the commander individually communicate with each other. Even so, the present invention is applicable.

また、この実施形態では、本発明をオーディオシステムに適用し、被制御機器がオーディオ機器であるが、本発明はオーディオシステムに限らずあらゆる制御システムに適用することができ、被制御機器はオーディオ機器に限定されない。   In this embodiment, the present invention is applied to an audio system, and the controlled device is an audio device. However, the present invention can be applied not only to the audio system but also to any control system, and the controlled device is an audio device. It is not limited to.

この発明が適用されるオーディオシステムの構成図Configuration diagram of an audio system to which the present invention is applied オーディオシステムのコマンダ(遠隔制御装置)の外観図External view of audio system commander (remote control device) コマンダのブロック図Commander block diagram オーディオシステムのオーディオ機器のブロック図Audio system audio equipment block diagram オーディオ機器であるAVレシーバが記憶している自己記述ファイルの一例を示す図The figure which shows an example of the self-description file memorize | stored in AV receiver which is an audio equipment 自己記述ファイルのFunc属性の値の一例を示す図The figure which shows an example of the value of the Func attribute of a self-description file 自己記述ファイルの他の一例(Cmdタグを含む)を示す図Diagram showing another example of self-describing file (including Cmd tag) 自己記述ファイルによって構成される階層化メニューの一例を示す図The figure which shows an example of the hierarchical menu comprised by the self-description file 自己記述ファイルの他の一例(FKeyタグを含む)を示す図Diagram showing another example of self-describing file (including FKey tag) 自己記述ファイルによって構成される階層化メニューの他の一例を示す図The figure which shows another example of the hierarchical menu comprised by a self-description file AVレシーバ以外のオーディオ機器の自己記述ファイルによって構成される階層化メニューの一例を示す図The figure which shows an example of the hierarchical menu comprised by the self-description file of audio equipments other than AV receiver 複数のオーディオ機器間の階層化メニューのリンク形態を説明する図The figure explaining the link form of the hierarchical menu between several audio equipment コマンダの動作を示すフローチャートFlow chart showing the operation of the commander コマンダのディスプレイに表示される画面の例を示す図The figure which shows the example of the screen displayed on the display of the commander この発明が適用される他のオーディオシステムの形態例を示す図The figure which shows the form example of the other audio system with which this invention is applied

符号の説明Explanation of symbols

10…オーディオ機器群(被制御機器群)
11,12…AVレシーバ
13…チューナ
14…DVDプレイヤ
16…コマンダ
36…ディスプレイ
37…タッチパッド
41〜56…キースイッチ
10 ... Audio device group (controlled device group)
DESCRIPTION OF SYMBOLS 11, 12 ... AV receiver 13 ... Tuner 14 ... DVD player 16 ... Commander 36 ... Display 37 ... Touchpad 41-56 ... Key switch

Claims (5)

被制御機器の機能制御コマンドが対応づけられた画像または文字が表示されるディスプレイと、
前記ディスプレイ上の前記画像または文字の指定操作を受け付けるポインティング操作部と、
前記被制御機器の所定の機能制御コマンドが対応づけられる1または複数のコマンドキーと、
前記被制御機器の複数の機能制御コマンドが記述された自己記述ファイルを取得し、
この自己記述ファイルに記述されている複数の機能制御コマンドのうち、前記所定の機能制御コマンドを前記キースイッチに対応づけるとともに、それ以外の機能制御コマンドが対応づけられた画像または文字を前記ディスプレイに表示し、
前記コマンドキーが操作されたとき、そのコマンドキーに対応づけられている機能制御コマンドを発行し、前記ポインティング操作部により前記ディスプレイに表示された画像または文字が指定されたとき、その画像または文字に対応づけられている機能制御コマンドを発行する制御部と、
を備えた遠隔制御装置。
A display on which an image or character associated with a function control command of the controlled device is displayed;
A pointing operation unit for accepting an operation for designating the image or character on the display;
One or a plurality of command keys associated with a predetermined function control command of the controlled device;
Obtaining a self-describing file in which a plurality of function control commands of the controlled device are described;
Among the plurality of function control commands described in the self-describing file, the predetermined function control command is associated with the key switch, and an image or a character associated with another function control command is displayed on the display. Display
When the command key is operated, a function control command associated with the command key is issued, and when the image or character displayed on the display is designated by the pointing operation unit, the image or character is displayed. A control unit that issues the associated function control command; and
Remote control device with.
所定のページへの移動処理が対応づけられるページキーをさらに備え、
前記制御部は、前記ディスプレイは、前記機能制御コマンドが対応づけられた画像または文字を複数ページにわたって表示するとともに、該複数ページのうち一部または全部に、他のページへの移動処理が対応づけられた画像または文字を表示し、さらに、前記ページキーに所定ページへの移動処理を対応づける
請求項1に記載の遠隔制御装置。
It further includes a page key associated with the movement process to a predetermined page,
In the control unit, the display displays an image or a character associated with the function control command over a plurality of pages, and part or all of the plurality of pages is associated with a movement process to another page. The remote control device according to claim 1, wherein a displayed image or character is displayed, and further, a movement process to a predetermined page is associated with the page key.
所定の機能が対応づけられるファンクションキーをさらに備え、
前記制御部は、前記ディスプレイに表示しているページに応じて、前記機能制御コマンドおよび/または他ページへの移動処理を前記ファンクションキーに対応づける
請求項2に記載の遠隔制御装置。
A function key to which a predetermined function is associated;
The remote control device according to claim 2, wherein the control unit associates the function control command and / or movement processing to another page with the function key in accordance with a page displayed on the display.
前記被制御機器の自己記述ファイルは、通信により当該被制御機器から取得される請求項1乃至請求項3のいずれかに記載の遠隔制御装置。   The remote control device according to claim 1, wherein the self-describing file of the controlled device is acquired from the controlled device by communication. 請求項4に記載の遠隔制御装置と、
少なくとも、前記遠隔制御装置と通信する通信手段、および、前記自己記述ファイルを記憶する記憶手段を備えた1または複数の被制御機器と、
を有する遠隔制御システム。
A remote control device according to claim 4;
At least one communication device that communicates with the remote control device, and one or a plurality of controlled devices including a storage device that stores the self-describing file;
Having remote control system.
JP2008317724A 2008-12-12 2008-12-12 Remote control device and remote control system Expired - Fee Related JP5347472B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008317724A JP5347472B2 (en) 2008-12-12 2008-12-12 Remote control device and remote control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008317724A JP5347472B2 (en) 2008-12-12 2008-12-12 Remote control device and remote control system

Publications (2)

Publication Number Publication Date
JP2010141748A true JP2010141748A (en) 2010-06-24
JP5347472B2 JP5347472B2 (en) 2013-11-20

Family

ID=42351446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008317724A Expired - Fee Related JP5347472B2 (en) 2008-12-12 2008-12-12 Remote control device and remote control system

Country Status (1)

Country Link
JP (1) JP5347472B2 (en)

Cited By (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017147081A1 (en) * 2016-02-22 2017-08-31 Sonos, Inc. Voice control of a media playback system
US9794720B1 (en) 2016-09-22 2017-10-17 Sonos, Inc. Acoustic position measurement
US9811314B2 (en) 2016-02-22 2017-11-07 Sonos, Inc. Metadata exchange involving a networked playback system and a networked microphone system
US9942678B1 (en) 2016-09-27 2018-04-10 Sonos, Inc. Audio playback settings for voice interaction
US9947316B2 (en) 2016-02-22 2018-04-17 Sonos, Inc. Voice control of a media playback system
US9965247B2 (en) 2016-02-22 2018-05-08 Sonos, Inc. Voice controlled media playback system based on user profile
US9978390B2 (en) 2016-06-09 2018-05-22 Sonos, Inc. Dynamic player selection for audio signal processing
US10021503B2 (en) 2016-08-05 2018-07-10 Sonos, Inc. Determining direction of networked microphone device relative to audio playback device
US10051366B1 (en) 2017-09-28 2018-08-14 Sonos, Inc. Three-dimensional beam forming with a microphone array
US10075793B2 (en) 2016-09-30 2018-09-11 Sonos, Inc. Multi-orientation playback device microphones
US10095470B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Audio response playback
US10097939B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Compensation for speaker nonlinearities
US10115400B2 (en) 2016-08-05 2018-10-30 Sonos, Inc. Multiple voice services
US10134399B2 (en) 2016-07-15 2018-11-20 Sonos, Inc. Contextualization of voice inputs
US10152969B2 (en) 2016-07-15 2018-12-11 Sonos, Inc. Voice detection by multiple devices
US10181323B2 (en) 2016-10-19 2019-01-15 Sonos, Inc. Arbitration-based voice recognition
US10264030B2 (en) 2016-02-22 2019-04-16 Sonos, Inc. Networked microphone device control
US10446165B2 (en) 2017-09-27 2019-10-15 Sonos, Inc. Robust short-time fourier transform acoustic echo cancellation during audio playback
US10445057B2 (en) 2017-09-08 2019-10-15 Sonos, Inc. Dynamic computation of system response volume
US10466962B2 (en) 2017-09-29 2019-11-05 Sonos, Inc. Media playback system with voice assistance
US10475449B2 (en) 2017-08-07 2019-11-12 Sonos, Inc. Wake-word detection suppression
US10482868B2 (en) 2017-09-28 2019-11-19 Sonos, Inc. Multi-channel acoustic echo cancellation
US10573321B1 (en) 2018-09-25 2020-02-25 Sonos, Inc. Voice detection optimization based on selected voice assistant service
US10587430B1 (en) 2018-09-14 2020-03-10 Sonos, Inc. Networked devices, systems, and methods for associating playback devices based on sound codes
US10587928B2 (en) 2013-01-23 2020-03-10 Sonos, Inc. Multiple household management
US10586540B1 (en) 2019-06-12 2020-03-10 Sonos, Inc. Network microphone device with command keyword conditioning
US10602268B1 (en) 2018-12-20 2020-03-24 Sonos, Inc. Optimization of network microphone devices using noise classification
US10621981B2 (en) 2017-09-28 2020-04-14 Sonos, Inc. Tone interference cancellation
US10621310B2 (en) 2014-05-12 2020-04-14 Sonos, Inc. Share restriction for curated playlists
US10645130B2 (en) 2014-09-24 2020-05-05 Sonos, Inc. Playback updates
US10681460B2 (en) 2018-06-28 2020-06-09 Sonos, Inc. Systems and methods for associating playback devices with voice assistant services
US10692518B2 (en) 2018-09-29 2020-06-23 Sonos, Inc. Linear filtering for noise-suppressed speech detection via multiple network microphone devices
US10778834B2 (en) 2016-12-20 2020-09-15 Axis Ab Controlling different states of operation of an electronic device over a communication network using a control device
US10797667B2 (en) 2018-08-28 2020-10-06 Sonos, Inc. Audio notifications
US10818290B2 (en) 2017-12-11 2020-10-27 Sonos, Inc. Home graph
US10846046B2 (en) 2014-09-24 2020-11-24 Sonos, Inc. Media item context in social media posts
US10847178B2 (en) 2018-05-18 2020-11-24 Sonos, Inc. Linear filtering for noise-suppressed speech detection
US10866698B2 (en) 2014-08-08 2020-12-15 Sonos, Inc. Social playback queues
US10867604B2 (en) 2019-02-08 2020-12-15 Sonos, Inc. Devices, systems, and methods for distributed voice processing
US10873612B2 (en) 2014-09-24 2020-12-22 Sonos, Inc. Indicating an association between a social-media account and a media playback system
US10871943B1 (en) 2019-07-31 2020-12-22 Sonos, Inc. Noise classification for event detection
US10872194B2 (en) 2014-02-05 2020-12-22 Sonos, Inc. Remote creation of a playback queue for a future event
US10880650B2 (en) 2017-12-10 2020-12-29 Sonos, Inc. Network microphone devices with automatic do not disturb actuation capabilities
US10878811B2 (en) 2018-09-14 2020-12-29 Sonos, Inc. Networked devices, systems, and methods for intelligently deactivating wake-word engines
US10959029B2 (en) 2018-05-25 2021-03-23 Sonos, Inc. Determining and adapting to changes in microphone performance of playback devices
US11024331B2 (en) 2018-09-21 2021-06-01 Sonos, Inc. Voice detection optimization using sound metadata
US11076035B2 (en) 2018-08-28 2021-07-27 Sonos, Inc. Do not disturb feature for audio notifications
US11100923B2 (en) 2018-09-28 2021-08-24 Sonos, Inc. Systems and methods for selective wake word detection using neural network models
US11120794B2 (en) 2019-05-03 2021-09-14 Sonos, Inc. Voice assistant persistence across multiple network microphone devices
US11132989B2 (en) 2018-12-13 2021-09-28 Sonos, Inc. Networked microphone devices, systems, and methods of localized arbitration
US11134291B2 (en) 2014-09-24 2021-09-28 Sonos, Inc. Social media queue
US11138975B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US11138969B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US11175880B2 (en) 2018-05-10 2021-11-16 Sonos, Inc. Systems and methods for voice-assisted media content selection
US11183181B2 (en) 2017-03-27 2021-11-23 Sonos, Inc. Systems and methods of multiple voice services
US11183183B2 (en) 2018-12-07 2021-11-23 Sonos, Inc. Systems and methods of operating media playback systems having multiple voice assistant services
US11189286B2 (en) 2019-10-22 2021-11-30 Sonos, Inc. VAS toggle based on device orientation
US11190564B2 (en) 2014-06-05 2021-11-30 Sonos, Inc. Multimedia content distribution system and method
US11200889B2 (en) 2018-11-15 2021-12-14 Sonos, Inc. Dilated convolutions and gating for efficient keyword spotting
US11200894B2 (en) 2019-06-12 2021-12-14 Sonos, Inc. Network microphone device with command keyword eventing
US11200900B2 (en) 2019-12-20 2021-12-14 Sonos, Inc. Offline voice control
US11223661B2 (en) 2014-09-24 2022-01-11 Sonos, Inc. Social media connection recommendations based on playback information
US11308962B2 (en) 2020-05-20 2022-04-19 Sonos, Inc. Input detection windowing
US11308958B2 (en) 2020-02-07 2022-04-19 Sonos, Inc. Localized wakeword verification
US11315556B2 (en) 2019-02-08 2022-04-26 Sonos, Inc. Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification
US11343614B2 (en) 2018-01-31 2022-05-24 Sonos, Inc. Device designation of playback and network microphone device arrangements
US11361756B2 (en) 2019-06-12 2022-06-14 Sonos, Inc. Conditional wake word eventing based on environment
US11482224B2 (en) 2020-05-20 2022-10-25 Sonos, Inc. Command keywords with input detection windowing
US11551700B2 (en) 2021-01-25 2023-01-10 Sonos, Inc. Systems and methods for power-efficient keyword detection
US11556307B2 (en) 2020-01-31 2023-01-17 Sonos, Inc. Local voice data processing
US11562740B2 (en) 2020-01-07 2023-01-24 Sonos, Inc. Voice verification for media playback
US11698771B2 (en) 2020-08-25 2023-07-11 Sonos, Inc. Vocal guidance engines for playback devices
US11727919B2 (en) 2020-05-20 2023-08-15 Sonos, Inc. Memory allocation for keyword spotting engines
US11782977B2 (en) 2014-03-05 2023-10-10 Sonos, Inc. Webpage media playback
US11899519B2 (en) 2018-10-23 2024-02-13 Sonos, Inc. Multiple stage network microphone device with reduced power consumption and processing load
US11984123B2 (en) 2020-11-12 2024-05-14 Sonos, Inc. Network device interaction by range

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001112073A (en) * 1999-10-06 2001-04-20 Hitachi Ltd Remote controller, electronic device and electronic device control method
JP2001245371A (en) * 1999-12-24 2001-09-07 Hitachi Ltd Remote control
JP2003009262A (en) * 2001-06-22 2003-01-10 Sony Communication Network Corp Electric appliance control method, electric appliance controller available for the method, mobile terminal, and computer program
JP2005101887A (en) * 2003-09-25 2005-04-14 Oki Electric Ind Co Ltd Remote control system
JP2005269438A (en) * 2004-03-19 2005-09-29 Pioneer Electronic Corp Remote control unit and remote control system for electronic equipment
JP2005323236A (en) * 2004-05-11 2005-11-17 Matsushita Electric Ind Co Ltd Remote controller
JP2006279213A (en) * 2005-03-28 2006-10-12 Sharp Corp Remote controller
JP2008153732A (en) * 2006-12-14 2008-07-03 Sharp Corp Remote control device, remote control system, and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001112073A (en) * 1999-10-06 2001-04-20 Hitachi Ltd Remote controller, electronic device and electronic device control method
JP2001245371A (en) * 1999-12-24 2001-09-07 Hitachi Ltd Remote control
JP2003009262A (en) * 2001-06-22 2003-01-10 Sony Communication Network Corp Electric appliance control method, electric appliance controller available for the method, mobile terminal, and computer program
JP2005101887A (en) * 2003-09-25 2005-04-14 Oki Electric Ind Co Ltd Remote control system
JP2005269438A (en) * 2004-03-19 2005-09-29 Pioneer Electronic Corp Remote control unit and remote control system for electronic equipment
JP2005323236A (en) * 2004-05-11 2005-11-17 Matsushita Electric Ind Co Ltd Remote controller
JP2006279213A (en) * 2005-03-28 2006-10-12 Sharp Corp Remote controller
JP2008153732A (en) * 2006-12-14 2008-07-03 Sharp Corp Remote control device, remote control system, and program

Cited By (203)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11889160B2 (en) 2013-01-23 2024-01-30 Sonos, Inc. Multiple household management
US11445261B2 (en) 2013-01-23 2022-09-13 Sonos, Inc. Multiple household management
US11032617B2 (en) 2013-01-23 2021-06-08 Sonos, Inc. Multiple household management
US10587928B2 (en) 2013-01-23 2020-03-10 Sonos, Inc. Multiple household management
US11734494B2 (en) 2014-02-05 2023-08-22 Sonos, Inc. Remote creation of a playback queue for an event
US11182534B2 (en) 2014-02-05 2021-11-23 Sonos, Inc. Remote creation of a playback queue for an event
US10872194B2 (en) 2014-02-05 2020-12-22 Sonos, Inc. Remote creation of a playback queue for a future event
US11782977B2 (en) 2014-03-05 2023-10-10 Sonos, Inc. Webpage media playback
US10621310B2 (en) 2014-05-12 2020-04-14 Sonos, Inc. Share restriction for curated playlists
US11188621B2 (en) 2014-05-12 2021-11-30 Sonos, Inc. Share restriction for curated playlists
US11190564B2 (en) 2014-06-05 2021-11-30 Sonos, Inc. Multimedia content distribution system and method
US11899708B2 (en) 2014-06-05 2024-02-13 Sonos, Inc. Multimedia content distribution system and method
US10866698B2 (en) 2014-08-08 2020-12-15 Sonos, Inc. Social playback queues
US11360643B2 (en) 2014-08-08 2022-06-14 Sonos, Inc. Social playback queues
US11960704B2 (en) 2014-08-08 2024-04-16 Sonos, Inc. Social playback queues
US11539767B2 (en) 2014-09-24 2022-12-27 Sonos, Inc. Social media connection recommendations based on playback information
US11134291B2 (en) 2014-09-24 2021-09-28 Sonos, Inc. Social media queue
US10873612B2 (en) 2014-09-24 2020-12-22 Sonos, Inc. Indicating an association between a social-media account and a media playback system
US10846046B2 (en) 2014-09-24 2020-11-24 Sonos, Inc. Media item context in social media posts
US11431771B2 (en) 2014-09-24 2022-08-30 Sonos, Inc. Indicating an association between a social-media account and a media playback system
US11223661B2 (en) 2014-09-24 2022-01-11 Sonos, Inc. Social media connection recommendations based on playback information
US10645130B2 (en) 2014-09-24 2020-05-05 Sonos, Inc. Playback updates
US11451597B2 (en) 2014-09-24 2022-09-20 Sonos, Inc. Playback updates
US11514898B2 (en) 2016-02-22 2022-11-29 Sonos, Inc. Voice control of a media playback system
US11736860B2 (en) 2016-02-22 2023-08-22 Sonos, Inc. Voice control of a media playback system
US10212512B2 (en) 2016-02-22 2019-02-19 Sonos, Inc. Default playback devices
US10225651B2 (en) 2016-02-22 2019-03-05 Sonos, Inc. Default playback device designation
US10264030B2 (en) 2016-02-22 2019-04-16 Sonos, Inc. Networked microphone device control
US11006214B2 (en) 2016-02-22 2021-05-11 Sonos, Inc. Default playback device designation
JP2019514237A (en) * 2016-02-22 2019-05-30 ソノズ インコーポレイテッド Audio control of media playback system
US9772817B2 (en) 2016-02-22 2017-09-26 Sonos, Inc. Room-corrected voice detection
US10971139B2 (en) 2016-02-22 2021-04-06 Sonos, Inc. Voice control of a media playback system
US10970035B2 (en) 2016-02-22 2021-04-06 Sonos, Inc. Audio response playback
US10365889B2 (en) 2016-02-22 2019-07-30 Sonos, Inc. Metadata exchange involving a networked playback system and a networked microphone system
US10409549B2 (en) 2016-02-22 2019-09-10 Sonos, Inc. Audio response playback
KR102234804B1 (en) 2016-02-22 2021-04-01 소노스 인코포레이티드 Voice control of a media playback system
KR102095250B1 (en) 2016-02-22 2020-04-01 소노스 인코포레이티드 Voice control method of media playback system
US11513763B2 (en) 2016-02-22 2022-11-29 Sonos, Inc. Audio response playback
US11750969B2 (en) 2016-02-22 2023-09-05 Sonos, Inc. Default playback device designation
US11832068B2 (en) 2016-02-22 2023-11-28 Sonos, Inc. Music service selection
US10499146B2 (en) 2016-02-22 2019-12-03 Sonos, Inc. Voice control of a media playback system
US10509626B2 (en) 2016-02-22 2019-12-17 Sonos, Inc Handling of loss of pairing between networked devices
US11137979B2 (en) 2016-02-22 2021-10-05 Sonos, Inc. Metadata exchange involving a networked playback system and a networked microphone system
US10555077B2 (en) 2016-02-22 2020-02-04 Sonos, Inc. Music service selection
US11863593B2 (en) 2016-02-22 2024-01-02 Sonos, Inc. Networked microphone device control
US9965247B2 (en) 2016-02-22 2018-05-08 Sonos, Inc. Voice controlled media playback system based on user profile
KR102080002B1 (en) 2016-02-22 2020-02-24 소노스 인코포레이티드 How to Play Audio Response
US11726742B2 (en) 2016-02-22 2023-08-15 Sonos, Inc. Handling of loss of pairing between networked devices
KR20190014494A (en) * 2016-02-22 2019-02-12 소노스 인코포레이티드 How to play an audio response
WO2017147081A1 (en) * 2016-02-22 2017-08-31 Sonos, Inc. Voice control of a media playback system
US10097919B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Music service selection
US9947316B2 (en) 2016-02-22 2018-04-17 Sonos, Inc. Voice control of a media playback system
US11184704B2 (en) 2016-02-22 2021-11-23 Sonos, Inc. Music service selection
US10097939B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Compensation for speaker nonlinearities
US11212612B2 (en) 2016-02-22 2021-12-28 Sonos, Inc. Voice control of a media playback system
US9820039B2 (en) 2016-02-22 2017-11-14 Sonos, Inc. Default playback devices
KR20190014495A (en) * 2016-02-22 2019-02-12 소노스 인코포레이티드 Voice control method of media playback system
US11983463B2 (en) 2016-02-22 2024-05-14 Sonos, Inc. Metadata exchange involving a networked playback system and a networked microphone system
US11405430B2 (en) 2016-02-22 2022-08-02 Sonos, Inc. Networked microphone device control
US10095470B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Audio response playback
CN109076284A (en) * 2016-02-22 2018-12-21 搜诺思公司 The voice control of media playback system
CN109076284B (en) * 2016-02-22 2020-05-12 搜诺思公司 Voice control for media playback system
US9811314B2 (en) 2016-02-22 2017-11-07 Sonos, Inc. Metadata exchange involving a networked playback system and a networked microphone system
KR20200034839A (en) * 2016-02-22 2020-03-31 소노스 인코포레이티드 Voice control of a media playback system
US10847143B2 (en) 2016-02-22 2020-11-24 Sonos, Inc. Voice control of a media playback system
US10142754B2 (en) 2016-02-22 2018-11-27 Sonos, Inc. Sensor on moving component of transducer
US10743101B2 (en) 2016-02-22 2020-08-11 Sonos, Inc. Content mixing
US10764679B2 (en) 2016-02-22 2020-09-01 Sonos, Inc. Voice control of a media playback system
US11042355B2 (en) 2016-02-22 2021-06-22 Sonos, Inc. Handling of loss of pairing between networked devices
US11545169B2 (en) 2016-06-09 2023-01-03 Sonos, Inc. Dynamic player selection for audio signal processing
US9978390B2 (en) 2016-06-09 2018-05-22 Sonos, Inc. Dynamic player selection for audio signal processing
US10714115B2 (en) 2016-06-09 2020-07-14 Sonos, Inc. Dynamic player selection for audio signal processing
US11133018B2 (en) 2016-06-09 2021-09-28 Sonos, Inc. Dynamic player selection for audio signal processing
US10332537B2 (en) 2016-06-09 2019-06-25 Sonos, Inc. Dynamic player selection for audio signal processing
US11184969B2 (en) 2016-07-15 2021-11-23 Sonos, Inc. Contextualization of voice inputs
US11664023B2 (en) 2016-07-15 2023-05-30 Sonos, Inc. Voice detection by multiple devices
US10134399B2 (en) 2016-07-15 2018-11-20 Sonos, Inc. Contextualization of voice inputs
US11979960B2 (en) 2016-07-15 2024-05-07 Sonos, Inc. Contextualization of voice inputs
US10152969B2 (en) 2016-07-15 2018-12-11 Sonos, Inc. Voice detection by multiple devices
US10297256B2 (en) 2016-07-15 2019-05-21 Sonos, Inc. Voice detection by multiple devices
US10699711B2 (en) 2016-07-15 2020-06-30 Sonos, Inc. Voice detection by multiple devices
US10593331B2 (en) 2016-07-15 2020-03-17 Sonos, Inc. Contextualization of voice inputs
US10847164B2 (en) 2016-08-05 2020-11-24 Sonos, Inc. Playback device supporting concurrent voice assistants
US10565998B2 (en) 2016-08-05 2020-02-18 Sonos, Inc. Playback device supporting concurrent voice assistant services
US10115400B2 (en) 2016-08-05 2018-10-30 Sonos, Inc. Multiple voice services
US10565999B2 (en) 2016-08-05 2020-02-18 Sonos, Inc. Playback device supporting concurrent voice assistant services
US11531520B2 (en) 2016-08-05 2022-12-20 Sonos, Inc. Playback device supporting concurrent voice assistants
US10354658B2 (en) 2016-08-05 2019-07-16 Sonos, Inc. Voice control of playback device using voice assistant service(s)
US10021503B2 (en) 2016-08-05 2018-07-10 Sonos, Inc. Determining direction of networked microphone device relative to audio playback device
US9794720B1 (en) 2016-09-22 2017-10-17 Sonos, Inc. Acoustic position measurement
US10034116B2 (en) 2016-09-22 2018-07-24 Sonos, Inc. Acoustic position measurement
US11641559B2 (en) 2016-09-27 2023-05-02 Sonos, Inc. Audio playback settings for voice interaction
US9942678B1 (en) 2016-09-27 2018-04-10 Sonos, Inc. Audio playback settings for voice interaction
US10582322B2 (en) 2016-09-27 2020-03-03 Sonos, Inc. Audio playback settings for voice interaction
US10075793B2 (en) 2016-09-30 2018-09-11 Sonos, Inc. Multi-orientation playback device microphones
US10873819B2 (en) 2016-09-30 2020-12-22 Sonos, Inc. Orientation-based playback device microphone selection
US10117037B2 (en) 2016-09-30 2018-10-30 Sonos, Inc. Orientation-based playback device microphone selection
US10313812B2 (en) 2016-09-30 2019-06-04 Sonos, Inc. Orientation-based playback device microphone selection
US11516610B2 (en) 2016-09-30 2022-11-29 Sonos, Inc. Orientation-based playback device microphone selection
US10614807B2 (en) 2016-10-19 2020-04-07 Sonos, Inc. Arbitration-based voice recognition
US11308961B2 (en) 2016-10-19 2022-04-19 Sonos, Inc. Arbitration-based voice recognition
US11727933B2 (en) 2016-10-19 2023-08-15 Sonos, Inc. Arbitration-based voice recognition
US10181323B2 (en) 2016-10-19 2019-01-15 Sonos, Inc. Arbitration-based voice recognition
US10778834B2 (en) 2016-12-20 2020-09-15 Axis Ab Controlling different states of operation of an electronic device over a communication network using a control device
US11183181B2 (en) 2017-03-27 2021-11-23 Sonos, Inc. Systems and methods of multiple voice services
US11900937B2 (en) 2017-08-07 2024-02-13 Sonos, Inc. Wake-word detection suppression
US10475449B2 (en) 2017-08-07 2019-11-12 Sonos, Inc. Wake-word detection suppression
US11380322B2 (en) 2017-08-07 2022-07-05 Sonos, Inc. Wake-word detection suppression
US11500611B2 (en) 2017-09-08 2022-11-15 Sonos, Inc. Dynamic computation of system response volume
US10445057B2 (en) 2017-09-08 2019-10-15 Sonos, Inc. Dynamic computation of system response volume
US11080005B2 (en) 2017-09-08 2021-08-03 Sonos, Inc. Dynamic computation of system response volume
US10446165B2 (en) 2017-09-27 2019-10-15 Sonos, Inc. Robust short-time fourier transform acoustic echo cancellation during audio playback
US11017789B2 (en) 2017-09-27 2021-05-25 Sonos, Inc. Robust Short-Time Fourier Transform acoustic echo cancellation during audio playback
US11646045B2 (en) 2017-09-27 2023-05-09 Sonos, Inc. Robust short-time fourier transform acoustic echo cancellation during audio playback
US10482868B2 (en) 2017-09-28 2019-11-19 Sonos, Inc. Multi-channel acoustic echo cancellation
US10891932B2 (en) 2017-09-28 2021-01-12 Sonos, Inc. Multi-channel acoustic echo cancellation
US10880644B1 (en) 2017-09-28 2020-12-29 Sonos, Inc. Three-dimensional beam forming with a microphone array
US10051366B1 (en) 2017-09-28 2018-08-14 Sonos, Inc. Three-dimensional beam forming with a microphone array
US10511904B2 (en) 2017-09-28 2019-12-17 Sonos, Inc. Three-dimensional beam forming with a microphone array
US11538451B2 (en) 2017-09-28 2022-12-27 Sonos, Inc. Multi-channel acoustic echo cancellation
US11302326B2 (en) 2017-09-28 2022-04-12 Sonos, Inc. Tone interference cancellation
US10621981B2 (en) 2017-09-28 2020-04-14 Sonos, Inc. Tone interference cancellation
US11769505B2 (en) 2017-09-28 2023-09-26 Sonos, Inc. Echo of tone interferance cancellation using two acoustic echo cancellers
US11288039B2 (en) 2017-09-29 2022-03-29 Sonos, Inc. Media playback system with concurrent voice assistance
US10606555B1 (en) 2017-09-29 2020-03-31 Sonos, Inc. Media playback system with concurrent voice assistance
US11893308B2 (en) 2017-09-29 2024-02-06 Sonos, Inc. Media playback system with concurrent voice assistance
US11175888B2 (en) 2017-09-29 2021-11-16 Sonos, Inc. Media playback system with concurrent voice assistance
US10466962B2 (en) 2017-09-29 2019-11-05 Sonos, Inc. Media playback system with voice assistance
US11451908B2 (en) 2017-12-10 2022-09-20 Sonos, Inc. Network microphone devices with automatic do not disturb actuation capabilities
US10880650B2 (en) 2017-12-10 2020-12-29 Sonos, Inc. Network microphone devices with automatic do not disturb actuation capabilities
US11676590B2 (en) 2017-12-11 2023-06-13 Sonos, Inc. Home graph
US10818290B2 (en) 2017-12-11 2020-10-27 Sonos, Inc. Home graph
US11689858B2 (en) 2018-01-31 2023-06-27 Sonos, Inc. Device designation of playback and network microphone device arrangements
US11343614B2 (en) 2018-01-31 2022-05-24 Sonos, Inc. Device designation of playback and network microphone device arrangements
US11175880B2 (en) 2018-05-10 2021-11-16 Sonos, Inc. Systems and methods for voice-assisted media content selection
US11797263B2 (en) 2018-05-10 2023-10-24 Sonos, Inc. Systems and methods for voice-assisted media content selection
US10847178B2 (en) 2018-05-18 2020-11-24 Sonos, Inc. Linear filtering for noise-suppressed speech detection
US11715489B2 (en) 2018-05-18 2023-08-01 Sonos, Inc. Linear filtering for noise-suppressed speech detection
US11792590B2 (en) 2018-05-25 2023-10-17 Sonos, Inc. Determining and adapting to changes in microphone performance of playback devices
US10959029B2 (en) 2018-05-25 2021-03-23 Sonos, Inc. Determining and adapting to changes in microphone performance of playback devices
US11696074B2 (en) 2018-06-28 2023-07-04 Sonos, Inc. Systems and methods for associating playback devices with voice assistant services
US10681460B2 (en) 2018-06-28 2020-06-09 Sonos, Inc. Systems and methods for associating playback devices with voice assistant services
US11197096B2 (en) 2018-06-28 2021-12-07 Sonos, Inc. Systems and methods for associating playback devices with voice assistant services
US11482978B2 (en) 2018-08-28 2022-10-25 Sonos, Inc. Audio notifications
US11563842B2 (en) 2018-08-28 2023-01-24 Sonos, Inc. Do not disturb feature for audio notifications
US11076035B2 (en) 2018-08-28 2021-07-27 Sonos, Inc. Do not disturb feature for audio notifications
US10797667B2 (en) 2018-08-28 2020-10-06 Sonos, Inc. Audio notifications
US10587430B1 (en) 2018-09-14 2020-03-10 Sonos, Inc. Networked devices, systems, and methods for associating playback devices based on sound codes
US11778259B2 (en) 2018-09-14 2023-10-03 Sonos, Inc. Networked devices, systems and methods for associating playback devices based on sound codes
US11432030B2 (en) 2018-09-14 2022-08-30 Sonos, Inc. Networked devices, systems, and methods for associating playback devices based on sound codes
US11551690B2 (en) 2018-09-14 2023-01-10 Sonos, Inc. Networked devices, systems, and methods for intelligently deactivating wake-word engines
US10878811B2 (en) 2018-09-14 2020-12-29 Sonos, Inc. Networked devices, systems, and methods for intelligently deactivating wake-word engines
US11790937B2 (en) 2018-09-21 2023-10-17 Sonos, Inc. Voice detection optimization using sound metadata
US11024331B2 (en) 2018-09-21 2021-06-01 Sonos, Inc. Voice detection optimization using sound metadata
US11031014B2 (en) 2018-09-25 2021-06-08 Sonos, Inc. Voice detection optimization based on selected voice assistant service
US11727936B2 (en) 2018-09-25 2023-08-15 Sonos, Inc. Voice detection optimization based on selected voice assistant service
US10573321B1 (en) 2018-09-25 2020-02-25 Sonos, Inc. Voice detection optimization based on selected voice assistant service
US10811015B2 (en) 2018-09-25 2020-10-20 Sonos, Inc. Voice detection optimization based on selected voice assistant service
US11100923B2 (en) 2018-09-28 2021-08-24 Sonos, Inc. Systems and methods for selective wake word detection using neural network models
US11790911B2 (en) 2018-09-28 2023-10-17 Sonos, Inc. Systems and methods for selective wake word detection using neural network models
US10692518B2 (en) 2018-09-29 2020-06-23 Sonos, Inc. Linear filtering for noise-suppressed speech detection via multiple network microphone devices
US11501795B2 (en) 2018-09-29 2022-11-15 Sonos, Inc. Linear filtering for noise-suppressed speech detection via multiple network microphone devices
US11899519B2 (en) 2018-10-23 2024-02-13 Sonos, Inc. Multiple stage network microphone device with reduced power consumption and processing load
US11200889B2 (en) 2018-11-15 2021-12-14 Sonos, Inc. Dilated convolutions and gating for efficient keyword spotting
US11741948B2 (en) 2018-11-15 2023-08-29 Sonos Vox France Sas Dilated convolutions and gating for efficient keyword spotting
US11183183B2 (en) 2018-12-07 2021-11-23 Sonos, Inc. Systems and methods of operating media playback systems having multiple voice assistant services
US11557294B2 (en) 2018-12-07 2023-01-17 Sonos, Inc. Systems and methods of operating media playback systems having multiple voice assistant services
US11132989B2 (en) 2018-12-13 2021-09-28 Sonos, Inc. Networked microphone devices, systems, and methods of localized arbitration
US11538460B2 (en) 2018-12-13 2022-12-27 Sonos, Inc. Networked microphone devices, systems, and methods of localized arbitration
US11159880B2 (en) 2018-12-20 2021-10-26 Sonos, Inc. Optimization of network microphone devices using noise classification
US10602268B1 (en) 2018-12-20 2020-03-24 Sonos, Inc. Optimization of network microphone devices using noise classification
US11540047B2 (en) 2018-12-20 2022-12-27 Sonos, Inc. Optimization of network microphone devices using noise classification
US11315556B2 (en) 2019-02-08 2022-04-26 Sonos, Inc. Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification
US10867604B2 (en) 2019-02-08 2020-12-15 Sonos, Inc. Devices, systems, and methods for distributed voice processing
US11646023B2 (en) 2019-02-08 2023-05-09 Sonos, Inc. Devices, systems, and methods for distributed voice processing
US11798553B2 (en) 2019-05-03 2023-10-24 Sonos, Inc. Voice assistant persistence across multiple network microphone devices
US11120794B2 (en) 2019-05-03 2021-09-14 Sonos, Inc. Voice assistant persistence across multiple network microphone devices
US11501773B2 (en) 2019-06-12 2022-11-15 Sonos, Inc. Network microphone device with command keyword conditioning
US11854547B2 (en) 2019-06-12 2023-12-26 Sonos, Inc. Network microphone device with command keyword eventing
US10586540B1 (en) 2019-06-12 2020-03-10 Sonos, Inc. Network microphone device with command keyword conditioning
US11361756B2 (en) 2019-06-12 2022-06-14 Sonos, Inc. Conditional wake word eventing based on environment
US11200894B2 (en) 2019-06-12 2021-12-14 Sonos, Inc. Network microphone device with command keyword eventing
US10871943B1 (en) 2019-07-31 2020-12-22 Sonos, Inc. Noise classification for event detection
US11138975B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US11710487B2 (en) 2019-07-31 2023-07-25 Sonos, Inc. Locally distributed keyword detection
US11138969B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US11714600B2 (en) 2019-07-31 2023-08-01 Sonos, Inc. Noise classification for event detection
US11551669B2 (en) 2019-07-31 2023-01-10 Sonos, Inc. Locally distributed keyword detection
US11354092B2 (en) 2019-07-31 2022-06-07 Sonos, Inc. Noise classification for event detection
US11862161B2 (en) 2019-10-22 2024-01-02 Sonos, Inc. VAS toggle based on device orientation
US11189286B2 (en) 2019-10-22 2021-11-30 Sonos, Inc. VAS toggle based on device orientation
US11200900B2 (en) 2019-12-20 2021-12-14 Sonos, Inc. Offline voice control
US11869503B2 (en) 2019-12-20 2024-01-09 Sonos, Inc. Offline voice control
US11562740B2 (en) 2020-01-07 2023-01-24 Sonos, Inc. Voice verification for media playback
US11556307B2 (en) 2020-01-31 2023-01-17 Sonos, Inc. Local voice data processing
US11308958B2 (en) 2020-02-07 2022-04-19 Sonos, Inc. Localized wakeword verification
US11961519B2 (en) 2020-02-07 2024-04-16 Sonos, Inc. Localized wakeword verification
US11727919B2 (en) 2020-05-20 2023-08-15 Sonos, Inc. Memory allocation for keyword spotting engines
US11308962B2 (en) 2020-05-20 2022-04-19 Sonos, Inc. Input detection windowing
US11482224B2 (en) 2020-05-20 2022-10-25 Sonos, Inc. Command keywords with input detection windowing
US11698771B2 (en) 2020-08-25 2023-07-11 Sonos, Inc. Vocal guidance engines for playback devices
US11984123B2 (en) 2020-11-12 2024-05-14 Sonos, Inc. Network device interaction by range
US11551700B2 (en) 2021-01-25 2023-01-10 Sonos, Inc. Systems and methods for power-efficient keyword detection

Also Published As

Publication number Publication date
JP5347472B2 (en) 2013-11-20

Similar Documents

Publication Publication Date Title
JP5347472B2 (en) Remote control device and remote control system
JP4788411B2 (en) Search keyword input device, search keyword input method, and search keyword input program
US9703471B2 (en) Selectively coordinated audio player system
JP4253797B2 (en) User interface for remote control applications
JP5749435B2 (en) Information processing apparatus, information processing method, program, control target device, and information processing system
KR101772653B1 (en) Control device and method for control of broadcast reciever
KR20130048794A (en) Dynamic adjustment of master and individual volume controls
CN101689388A (en) Method of setting an equalizer in an apparatus to reproduce a media file and apparatus thereof
JPWO2007037264A1 (en) Terminal device and program
KR20070115623A (en) Method of task-oriented universal remote control user interface
JP2011139405A (en) Information processor, information processing method, program, control object device, and information processing system
JP2005204251A (en) User input control apparatus and method, program, and recording medium
JP4487622B2 (en) Peripheral equipment control device
JP5347471B2 (en) Remote control device and remote control system
JP5251476B2 (en) Remote control device and remote control system
JP5251477B2 (en) Remote control device and remote control system
JP2013225901A (en) Remote control device and remote control system
US7487000B1 (en) Navigation screen system and method for remote control
JP2005223931A (en) User operation assisting instrument and user operation assisting method
JP2008116993A (en) Electronic device system and program
JP2010141744A (en) Remote control apparatus and system
JP4736176B2 (en) Audio device remote control content setting method, audio device remote control content setting device, and recording medium
KR20090000508A (en) Method and apparatus for displaying contents list
WO2005062465A1 (en) Activity page display for remote controller
KR102303286B1 (en) Terminal device and operating method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121030

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130319

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130805

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees