JP2022180072A - 表示方法および表示装置 - Google Patents

表示方法および表示装置 Download PDF

Info

Publication number
JP2022180072A
JP2022180072A JP2021086980A JP2021086980A JP2022180072A JP 2022180072 A JP2022180072 A JP 2022180072A JP 2021086980 A JP2021086980 A JP 2021086980A JP 2021086980 A JP2021086980 A JP 2021086980A JP 2022180072 A JP2022180072 A JP 2022180072A
Authority
JP
Japan
Prior art keywords
display
group
groups
scene
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021086980A
Other languages
English (en)
Inventor
康祐 斉藤
Kosuke Saito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2021086980A priority Critical patent/JP2022180072A/ja
Priority to US17/750,296 priority patent/US11893211B2/en
Publication of JP2022180072A publication Critical patent/JP2022180072A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/02Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
    • H04H60/04Studio equipment; Interconnection of studios

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

【課題】あるデータ(グループの中の構成要素)が全体のグループの中でどのグループに所属し、かつ、そのデータに関係するグループがどの様なグループなのか、容易に把握できる表示方法を提供する。【解決手段】表示方法は、表示器の一部の領域である第1領域に、複数のグループの一覧を表示し、前記複数のグループの少なくともいずれか1つに属する構成要素の名前を、前記表示器の一部の領域であって前記第1領域とは異なる領域である第2領域に表示する表示方法である。表示方法は、前記第1領域において、前記複数のグループのすべてを表示し、かつ前記構成要素の属するグループを、他のグループと異なる表示態様で表示する第1表示モードと、前記第1領域において、前記複数のグループのうち前記構成要素の属するグループのみ表示する第2表示モードと、を切り替える。【選択図】図6

Description

この発明は、データの表示方法および表示装置に関する。
特許文献1の表示方法は、アイコン一覧画面において、大、中、小の3種類のアイコン一覧画面を表示する。
特許文献2の表示方法は、年、月、日の様に、階層的に、各コンテンツデータをグループ化して表示する。すなわち、特許文献2の表示方法は、年単位、月単位、または日単位でコンテンツを表示する。
特許6115256号公報 特許5086960号公報
特許文献1、2の技術においては、あるデータ(グループの中の構成要素)が全体のグループの中でどのグループに所属しているのか、かつ、そのデータに関係するグループがどの様なグループなのか、把握できない。
以上の事情を考慮して、本開示のひとつの態様は、あるデータ(グループの中の構成要素)が全体のグループの中でどのグループに所属し、かつ、そのデータに関係するグループがどの様なグループなのか、容易に把握できる表示方法を提供することを目的とする。
表示方法は、表示器の一部の領域である第1領域に、複数のグループの一覧を表示し、前記複数のグループの少なくともいずれか1つに属する構成要素の名前を、前記表示器の一部の領域であって前記第1領域とは異なる領域である第2領域に表示する表示方法である。表示方法は、前記第1領域において、前記複数のグループのすべてを表示し、かつ前記構成要素の属するグループを、他のグループと異なる表示態様で表示する第1表示モードと、前記第1領域において、前記複数のグループのうち前記構成要素の属するグループのみ表示する第2表示モードと、を切り替える。
本発明によれば、あるデータ(グループの中の構成要素)が全体のグループの中でどのグループに所属し、かつ、そのデータに関係するグループがどの様なグループなのか、容易に把握できる。
オーディオミキサの構成を示すブロック図である。 信号処理の機能的ブロック図である。 入力パッチの設定画面を示す図である。 ある入力チャンネルiの処理構成を示す図である。 オーディオミキサ1の操作パネルの構成を示す図である。 第1表示モードにおけるシーングループ管理画面の一例を示す図である。 第2表示モードにおけるシーングループ管理画面の一例を示す図である。 CPU16の表示制御動作を示すフローチャートである。 第2表示モードにおけるシーングループ管理画面の一例を示す図である。 シーンデータ毎に第1表示モードと第2表示モードとを切り替える場合のシーングループ管理画面の一例を示す図である。
図1は、オーディオミキサ1の構成を示すブロック図である。オーディオミキサ1は、本発明の表示装置の一例である。オーディオミキサ1は、表示器11、操作部12、オーディオI/O(Input/Output)13、信号処理部14、通信インタフェース(I/F)15、CPU16、フラッシュメモリ17、およびRAM18を備えている。
表示器11、操作部12、オーディオI/O(Input/Output)13、信号処理部14、通信インタフェース(I/F)15、CPU16、フラッシュメモリ17、およびRAM18は、互いにバス25を介して接続されている。
オーディオI/O13は、信号処理部14で処理すべき音信号の入力を受け付けるためのインタフェースである。オーディオI/O13には、音信号の入力を受け付けるアナログ入力ポートまたはデジタル入力ポート等が設けられている。また、オーディオI/O13は、信号処理部14で処理された後の音信号を出力するためのインタフェースである。オーディオI/O13には、音信号を出力するアナログ出力ポートまたはデジタル出力ポート等が設けられている。
通信I/F15は、他の機器と通信するためのインタフェースである。通信I/F15は、例えば外部のPCが接続される。あるいは、通信I/F15は、Dante(登録商標)等の規格に準じた音信号を、ネットワーク経由で送受信する。
CPU16は、オーディオミキサ1の動作を制御する制御部である。CPU16は、記憶部であるフラッシュメモリ19に記憶された所定のプログラムをRAM20に読み出すことにより各種の動作を行なう。CPU16は、当該プログラムにより、表示器11の表示制御部としても機能する。
表示器11は、CPU16の制御に従って種々の情報を表示する。表示器11は、例えばLCDまたは発光ダイオード(LED)等によって構成される。
操作部12は、ユーザからオーディオミキサ1に対する操作を受け付ける。操作部12は、種々のキー、ボタン、ロータリーエンコーダ、またはスライダ等によって構成される。また、操作部12は、表示器11であるLCDに積層したタッチパネルによって構成される場合もある。
信号処理部14は、ミキシング処理またはエフェクト処理等の各種信号処理を行なうためのDSPから構成される。信号処理部14は、オーディオI/O13または通信I/F15から供給される音信号に、ミキシングまたはイコライジング等の信号処理を施す。信号処理部14は、信号処理後のデジタルオーディオ信号を、オーディオI/O13または通信I/F15を介して出力する。
図2は、信号処理の機能ブロック図である。図2に示すように、信号処理は、機能的に、入力パッチ301、入力チャンネル302、バス303、出力チャンネル304、および出力パッチ305によって行なわれる。
入力パッチ301は、オーディオI/O13における複数の入力ポート(例えばアナログ入力ポートまたはデジタル入力ポート)からオーディオ信号を入力して、複数のポートのうちいずれか1つのポートを、複数の入力チャンネル(例えば32ch)の少なくとも1つのチャンネルに割り当てる。図3は、入力パッチ301の設定画面の一例を示す図である。入力パッチ301の設定画面は、表示器11に表示される。入力パッチ301の設定画面は、チャンネル名とポート番号とをマトリクス形式で表示する。表示器11には、タッチパネルが積層されている。ユーザは、マトリクスの各ポート番号を選択することで、各ポートに割り当てるチャンネルを指定する。これにより、オーディオ信号が入力チャンネル302の各チャンネルに供給される。
図4は、ある入力チャンネルiの信号処理の構成を機能的に示すブロック図である。入力チャンネル302の各チャンネルは、信号処理ブロック351において、入力パッチ301から供給されたオーディオ信号に対して、アッテネータ(ATT)、イコライザ(EQ)、ゲート(GATE)、またはコンプレッサ(COMP)等の信号処理を施す。
信号処理後のオーディオ信号は、フェーダ部(FADER)352でレベル調整された後に、パン部(PAN)353を介して、後段のバス303に送出される。パン部353は、バス303のステレオバス(マスタ出力となる2チャンネルのバス)3031に供給する信号のバランスを調整する。
また、信号処理後のオーディオ信号は、セレクタ(SEL)354を介して送り部(MIX1~MIX16)355でレベル調整された後に、後段のバス303に送出される。SEL354は、ユーザの選択操作により、信号処理ブロック351から出力される信号と、フェーダ部352でレベル調整された後の信号と、のいずれかの信号を後段の送り部355に入力させることができる。送り部355は、バス303のMIXバス3032(MIX1~MIX16)のそれぞれに信号を供給するか否かをユーザにより切り換えられる。また、送り部355は、各MIXバスに供給する信号のレベルをユーザが設定した各送り量に応じて調整する。
出力チャンネル304は、例えば16チャンネルを有する。出力チャンネル304における各チャンネルでは、入力チャンネルと同様に、入力されるオーディオ信号に対して、各種信号処理を施す。出力チャンネル304の各チャンネルは、信号処理後のオーディオ信号を出力パッチ305へ送出する。出力パッチ305は、各チャンネルを、アナログ出力ポートまたはデジタル出力ポートにおける複数のポートのうちいずれか1つのポートに割り当てる。これにより、信号処理を施された後のオーディオ信号が、オーディオI/O13に供給される。
以上の信号処理は、各種パラメータの設定値に基づいて制御される。CPU16は、各種パラメータの現在の設定値(カレントデータ)をRAM20に記憶する。CPU16は、ユーザが操作部12を操作したときにカレントデータを更新する。
次に、図5は、オーディオミキサ1の操作パネルの構成を示す図である。オーディオミキサ1の操作パネル上には、図5に示すように、表示器11、チャンネルストリップ63、ストアボタン72、リコールボタン73、および増減ボタン74等が設けられている。表示器11は、操作部12の一態様であるタッチパネルを積層した表示器11であり、ユーザの操作を受け付けるためのGUI(グラフィカルユーザインタフェース)画面を表示する。表示器11のGUI、チャンネルストリップ63、ストアボタン72、リコールボタン73、および増減ボタン74は、操作部12に相当する。
チャンネルストリップ63は、1つのチャンネルに対する操作を受け付ける複数の操作子を縦に並べて配置した領域である。この図では、操作子として、チャンネル毎に1つフェーダと1つのノブだけが表示されているが、実際には多数のノブまたはスイッチ等が設けられている。チャンネルストリップ63のうち、左側に配置された複数(例えば16)のフェーダおよびノブは、入力チャンネルに相当する。右側に配置された2つのフェーダおよびノブは、マスタ出力(2チャンネルのバス)に対応する操作子である。
ストアボタン72は、シーンデータのストアを指示するボタンである。ユーザは、ストアボタン72を操作して、カレントデータを1つのシーンデータとしてフラッシュメモリ19に記憶させる(ストアさせる)ことができる。フラッシュメモリ19には、複数のシーンデータが記憶される。また、ユーザは、増減ボタン74を操作することより、保存および呼び出しの対象とするシーンデータを、複数のシーンデータの中から選択することができる。ユーザは、リコールボタン73を操作することで、必要なシーンデータを呼び出すことにより、各種パラメータの設定値を呼び出す(リコールする)ことができる。なお、これらのボタンは、表示器11に積層されたタッチパネルを用いたGUIにより構成することも可能である。
さらに、本実施形態のオーディオミキサは複数のシーンデータをグループ化して管理することができる。ユーザは、例えば同じ曲、同じ歌手または同じ演奏者等のシーンデータを同じシーングループに指定する。ユーザは、例えばあるシーンデータを編集してストアした後、当該ストアしたシーンデータを、あるシーンデータにコピーする操作を行う。この場合、ユーザは、ある任意のシーンデータを、グループ化された複数のシーンデータにまとめてコピーすることができる。また、ユーザは、ある任意のパラメータを、グループ化された複数のシーンデータにまとめてコピーすることもできる。
図6は、第1表示モードにおけるシーングループ管理画面の一例を示す図である。シーングループ管理画面70は、第1領域81および第2領域82を有する。第1領域81は、複数のシーングループの一覧を表示する。第1領域81は、グループ選択タブ51、グループ選択タブ52、および複数のグループ選択アイコン71を有する。ユーザがグループ選択タブ51を選択すると、第1領域にはシーングループ1~シーングループ16の一覧が表示される。ユーザがグループ選択タブ52を選択すると、第1領域にはシーングループ17~シーングループ32の一覧が表示される。なお、シーングループの数は、本実施形態で示す数に限らない。
図6の例では、ユーザがグループ選択タブ51を選択しているため、第1領域にはシーングループ1~シーングループ16の一覧が表示されている。ユーザは、グループ選択アイコン71から任意のシーングループを選択する。図6の例では、ユーザは、シーングループ1を選択している。シーングループ1は、シーンデータ1およびシーンデータ3を含む。
第2領域82は、シーングループに属する構成要素であるシーンデータの名前(TITLE)を表示するタイトル表示部91と、全てのシーングループを表示するグループ表示部92と、を有する。グループ表示部92は、さらに、各シーンデータの属するシーングループを、他のシーングループとは異なる表示態様で表示する。図6の例では、グループ表示部92は、各シーンデータの属するシーングループを反転表示している。ただし、表示態様は、色を変える、ハッチングにする等、どの様な態様であってもよい。
図6の例では、ユーザは、シーングループ1を選択している。シーングループ1は、シーンデータ1およびシーンデータ3を含む。そのため、第2領域82では、シーンデータ1およびシーンデータ3が強調して表示される。さらに、シーンデータ1は、シーングループ1、シーングループ3およびシーングループ4に属している。そのため、シーンデータ1に対応するグループ表示部92は、シーングループ1、シーングループ3およびシーングループ4を反転表示している。シーンデータ2は、シーングループ2、シーングループ3およびシーングループ4に属している。そのため、シーンデータ2に対応するグループ表示部92は、シーングループ2、シーングループ3およびシーングループ4を反転表示している。シーンデータ3は、シーングループ1、シーングループ2およびシーングループ4に属している。そのため、シーンデータ3に対応するグループ表示部92は、シーングループ1、シーングループ2およびシーングループ4を反転表示している。シーンデータ4は、シーングループ4に属している。そのため、シーンデータ4に対応するグループ表示部92は、シーングループ4を反転表示している。
第1表示モードでは、ユーザは、各シーンデータについて、全体のシーングループの中でどのシーングループに属するのか容易に把握することができる。
図7は、第2表示モードにおけるシーングループ管理画面の一例を示す図である。図6と共通する構成は同一の符号を付し、説明を省略する。
第2表示モードでは、第2領域82は、全てのシーングループを表示するグループ表示部92に代えて、所属グループ表示部93を有する。所属グループ表示部93は、複数のシーングループのうち各シーンデータの属するシーングループのみ表示する。
図7の例では、シーンデータ1は、シーングループ1、シーングループ3およびシーングループ4に属している。そのため、シーンデータ1に対応する所属グループ表示部93は、シーングループ1、シーングループ3およびシーングループ4のみを表示している。シーンデータ2に対応する所属グループ表示部93は、シーングループ2、シーングループ3およびシーングループ4のみを表示している。シーンデータ3に対応する所属グループ表示部93は、シーングループ1、シーングループ2およびシーングループ4のみを表示している。シーンデータ4に対応する所属グループ表示部93は、シーングループ4のみを表示している。
第2表示モードでは、所属するシーングループのみ表示するため、全てのシーングループを表示する第1表示モードに対して、より詳細な情報を表示することができる。例えば図7では、所属グループ表示部93は、シーングループの名称を表示している。シーンデータ1に対応する所属グループ表示部93は、シーングループ1の名称(SONG1)、シーングループ3の名称(SONG3)およびシーングループ4の名称(SONG4)を表示している。
第2表示モードでは、ユーザは、各シーンデータに対応するシーングループがどの様なシーングループなのか、容易かつ具体的に把握することができる。
図8は、CPU16の表示制御動作を示すフローチャートである。CPU16は、表示モードが第1表示モードであるか、第2表示モードであるか、判断する(S11)。CPU16は、第1表示モードであると判断した場合(S11:Yes)、全てのシーングループと、各シーンデータが所属するシーングループを他のシーングループと異なる表示態様で表示する(S12)。一方、CPU16は、第2表示モードであると判断した場合(S11:No)、複数のシーングループのうち各シーンデータの属するシーングループのみ表示する(S13)。
CPU16は、モード切替を受け付けたか否かを判断する(S14)。モード切替は、例えば第2領域82のタイトル表示部91に対するタッチ操作により受け付ける。ただし、モード切替の受け付け態様はこの例に限らない。例えば、オーディオミキサ1は、図5に示した操作パネルの構成にモード切替ボタンを備え、該モード切替ボタンを介してモード切替を受け付けてもよい。
CPU16は、タイトル表示部91に対するタッチ操作を受け付ける等して、モード切替を受け付けたと判断した場合(S14:Yes)、表示モードを切り替える(S15)。CPU16は、現在の表示モードが第1表示モードである場合、第2表示モードに切り替える。CPU16は、現在の表示モードが第2表示モードである場合、第1表示モードに切り替える。
以上の様にして、本実施形態のオーディオミキサ1によれば、ユーザは、第1表示モードでは各シーンデータについて、全体のシーングループの中でどのシーングループに属するのか容易に把握することができる。また、ユーザは、第2表示モードでは各シーンデータに関連するグループがどの様なシーングループなのか、容易に把握することができる。オーディオミキサ1は、第1表示モードと第2表示モードとを切り替えることで、少ない表示領域であっても、ユーザが各シーンデータについて、全体のシーングループの中でどのシーングループに属するのか容易に把握することができ、かつ各シーンデータに関連するグループがどの様なシーングループなのか、容易に把握することができる。
なお、第2表示モードでは、各シーンデータの属するシーングループが所定の数以上存在する場合、所定の数を超えるシーングループの表示を省略し、省略された旨の表示をしてもよい。例えば、図9の様に、シーンデータ1の所属するグループがシーングループ1、シーングループ2、シーングループ3、およびシーングループ4の場合、CPU16は、シーングループ4の表示を省略し、省略表示アイコン94を表示する。この例では、所定の数は3であり、所属グループ表示部93に3つのシーングループを表示しているが、所定の数は1でも2でも4以上であってもよい。
この様に、オーディオミキサ1は、一部のシーングループの表示を省略することで、各シーンデータの属するシーングループの数が多くなっても情報量を多く表示することができる。
なお、CPU16は、第2領域82に対するタッチ操作を受け付けた場合に、各シーンデータの属するシーングループの変更を受け付けないことが好ましい。各シーンデータの属するシーングループの変更操作は、別の設定画面で行うことが好ましい。また、各シーンデータの属するシーングループの変更操作は、別の設定画面で行うため、第2領域82に対するタッチ操作を受け付けた場合でも、第1領域81の表示内容は変化しない。これにより、ユーザは、図3に示した入力パッチ301の設定画面とシーングループの管理画面とを混同することがない。
上述の例では、全てのシーンデータに対して、第1表示モードと第2表示モードとの切り替えを行った。しかし、第1表示モードと第2表示モードとの切り替えは、各々のシーンデータに対応して行ってもよい。
例えば、図10に示す様に、CPU16は、シーンデータ1のみ第2表示モードで表示し、他のシーンデータを第1表示モードで表示してもよい。この場合、CPU16は、各シーンデータのタイトル表示部91に対するタッチ操作を受け付けて、シーンデータ毎に表示モードを切り替える。
本実施形態の説明は、すべての点で例示であって、制限的なものではない。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲には、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
例えば、本実施形態では、構成要素の一例としてシーンデータを示し、グループとしてシーングループを示した。しかし、本願発明の構成要素はシーンデータに限らないし、グループもシーングループに限らない。例えば、構成要素は入力チャンネル302における各入力チャンネルであってもよい。また、グループは、MIXバスであってもよい。この場合、CPU16は、第1表示モードでは全てのMIXバスの一覧(例えば1~16の番号)を表示し、各入力チャンネルからの音信号の送出がONに設定されているMIXバス(MIXバスの番号)を、他のMIXバスの番号とは異なる表示態様で表示する。あるいは、CPU16は、入力チャンネルのボリュームのゲイン値が-∞よりも大きく設定されているMIXバスの番号を、他のMIXバスの番号とは異なる表示態様で表示してもよい。CPU16は、第2表示モードでは各入力チャンネルで送出がONに設定されている、あるいはゲイン値が-∞より大きく設定されているMIXバスの番号のみ表示する。第2表示モードでは、CPU16は、送出がONに設定されている、あるいはゲイン値が-∞より大きく設定されているMIXバスの名前を表示してもよい。
あるいは、逆に、構成要素はMIXバスであり、各構成要素の属するグループは入力チャンネルであってもよい。この場合、CPU16は、タイトル表示部91にMIXバスの名前を表示し、第1表示モードではグループ表示部92に入力チャンネルの番号を表示し、第2表示モードでは所属グループ表示部93に入力チャンネルの名前を表示してもよい。
また、構成要素は入力チャンネルであり、グループはオートミキサであってもよい。あるいは、構成要素は入力チャンネルであり、グループはチャンネルグループであってもよい。また、構成要素はフェーダであり、グループはDCA(Digital Controlled Amplifier)フェーダであってもよい。
あるいは、構成要素はチャンネルグループであり、各構成要素の属するグループは入力チャンネルであってもよい。この場合、CPU16は、タイトル表示部91にチャンネルグループの名前を表示し、第1表示モードではグループ表示部92に入力チャンネルの番号を表示し、第2表示モードでは所属グループ表示部93に入力チャンネルの名前を表示してもよい。
また、本実施形態では構成要素が音響処理に関する要素であったが、音響処理以外の要素であってもよい。例えば、構成要素が写真データであり、グループが特定の人物であってもよい。この場合、情報処理装置は、第1表示モードでは全ての人物の一覧(例えばイニシャル)を表示し、各写真の属する人物を、他の人物とは異なる表示態様で表示する。情報処理装置は、第2表示モードでは各写真の属する人物のみ表示する。第2表示モードでは、情報処理装置は、人物のフルネーム等の詳細を表示してもよい。また、構成要素がある工場のある設備のパラメータであり、グループが建物であってもよい。この場合、情報処理装置は、第1表示モードでは全ての建物を表示し、各設備の属する建物(例えば番号)を、他の建物とは異なる表示態様で表示する。情報処理装置は、第2表示モードでは各設備の属する建物のみ表示する。第2表示モードでは、情報処理装置は、建物名等の詳細を表示してもよい。
1…オーディオミキサ
11…表示器
12…操作部
13…オーディオI/O
14…信号処理部
15…通信I/F
16…CPU
17…フラッシュメモリ
18…RAM
19…フラッシュメモリ
20…RAM
25…バス
51…グループ選択タブ
52…グループ選択タブ
63…チャンネルストリップ
70…シーングループ管理画面
71…グループ選択アイコン
72…ストアボタン
73…リコールボタン
74…増減ボタン
81…第1領域
82…第2領域
91…タイトル表示部
92…グループ表示部
93…所属グループ表示部
94…省略表示アイコン
301…入力パッチ
302…入力チャンネル
303…バス
304…出力チャンネル
305…出力パッチ
351…信号処理ブロック
352…フェーダ部
353…パン部

Claims (16)

  1. 表示器の一部の領域である第1領域に、複数のグループの一覧を表示し、
    前記複数のグループの少なくともいずれか1つに属する構成要素の名前を、前記表示器の一部の領域であって前記第1領域とは異なる領域である第2領域に表示する表示方法であって、
    前記第2領域において、前記複数のグループのすべてを表示し、かつ前記構成要素の属するグループを、他のグループと異なる表示態様で表示する第1表示モードと、
    前記第2領域において、前記複数のグループのうち前記構成要素の属するグループのみ表示する第2表示モードと、
    を切り替える表示方法。
  2. 前記第2表示モードでは、前記構成要素の属するグループが所定の数以上存在する場合、所定の数を超えるグループの表示を省略し、省略された旨の表示をする、
    請求項1に記載の表示方法。
  3. 前記第2領域に対する操作による前記構成要素の属するグループ変更を受け付けない、
    請求項1または請求項2に記載の表示方法。
  4. 前記構成要素の選択操作を受け付け、
    前記選択操作の際に、前記第1領域の表示を変化させない
    請求項1乃至請求項3のいずれか1項に記載の表示方法。
  5. 複数の前記構成要素を表示し、
    前記複数のグループを各々の構成要素に対応して表示し、
    前記第1表示モードと第2表示モードとの切り替えは、すべての構成要素に対応して行われる、
    請求項1乃至請求項4のいずれか1項に記載の表示方法。
  6. 複数の前記構成要素を表示し、
    前記複数のグループを各々の構成要素に対応して表示し、
    前記第1表示モードと第2表示モードとの切り替えは、各々の構成要素に対応して行われる、
    請求項1乃至請求項4のいずれか1項に記載の表示方法。
  7. 前記構成要素は、音響処理に関する要素である、
    請求項1乃至請求項6のいずれか1項に記載の表示方法。
  8. 前記構成要素はシーンであり、前記グループはシーングループである、
    請求項1乃至請求項7のいずれか1項に記載の表示方法。
  9. 表示器と、
    前記表示器の一部の領域である第1領域に、複数のグループの一覧を表示し、
    前記複数のグループの少なくともいずれか1つに属する構成要素の名前を、前記表示器の一部の領域であって前記第1領域とは異なる領域である第2領域に表示する、表示制御部と、
    を備えた表示装置であって、
    前記表示制御部は、
    前記第2領域において、前記複数のグループのすべてを表示し、かつ前記構成要素の属するグループを、他のグループと異なる表示態様で表示する第1表示モードと、
    前記第2領域において、前記複数のグループのうち前記構成要素の属するグループのみ表示する第2表示モードと、
    を切り替える表示装置。
  10. 前記表示制御部は、前記第2表示モードでは、前記構成要素の属するグループが所定の数以上存在する場合、所定の数を超えるグループの表示を省略し、省略された旨の表示をする、
    請求項9に記載の表示装置。
  11. 前記表示装置は、前記第2領域に対する操作による前記構成要素の属するグループ変更を受け付けない、
    請求項9または請求項10に記載の表示装置。
  12. 前記構成要素の選択操作を受け付ける受付部を備え、
    前記表示制御部は、前記選択操作の際に、前記第1領域の表示を変化させない
    請求項9乃至請求項11のいずれか1項に記載の表示装置。
  13. 前記表示制御部は、
    複数の前記構成要素を表示し、
    前記複数のグループを各々の構成要素に対応して表示し、
    前記第1表示モードと第2表示モードとの切り替えは、すべての構成要素に対応して行われる、
    請求項9乃至請求項12のいずれか1項に記載の表示装置。
  14. 前記表示制御部は、
    複数の前記構成要素を表示し、
    前記複数のグループを各々の構成要素に対応して表示し、
    前記第1表示モードと第2表示モードとの切り替えは、各々の構成要素に対応して行われる、
    請求項9乃至請求項12のいずれか1項に記載の表示装置。
  15. 前記構成要素は、音響処理に関する要素である、
    請求項9乃至請求項14のいずれか1項に記載の表示装置。
  16. 前記構成要素はシーンであり、前記グループはシーングループである、
    請求項9乃至請求項15のいずれか1項に記載の表示装置。
JP2021086980A 2021-05-24 2021-05-24 表示方法および表示装置 Pending JP2022180072A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021086980A JP2022180072A (ja) 2021-05-24 2021-05-24 表示方法および表示装置
US17/750,296 US11893211B2 (en) 2021-05-24 2022-05-20 Display method and display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021086980A JP2022180072A (ja) 2021-05-24 2021-05-24 表示方法および表示装置

Publications (1)

Publication Number Publication Date
JP2022180072A true JP2022180072A (ja) 2022-12-06

Family

ID=84102766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021086980A Pending JP2022180072A (ja) 2021-05-24 2021-05-24 表示方法および表示装置

Country Status (2)

Country Link
US (1) US11893211B2 (ja)
JP (1) JP2022180072A (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4380746B2 (ja) * 2007-07-23 2009-12-09 ヤマハ株式会社 ディジタルミキサ
US20090307633A1 (en) * 2008-06-06 2009-12-10 Apple Inc. Acceleration navigation of media device displays
JP5086960B2 (ja) 2008-09-26 2012-11-28 キヤノン株式会社 データ閲覧装置及びデータ閲覧装置の制御方法
JP6115256B2 (ja) 2013-03-29 2017-04-19 ブラザー工業株式会社 画像表示制御装置、画像表示制御方法および画像表示制御プログラム
JP6904012B2 (ja) * 2016-04-04 2021-07-14 ヤマハ株式会社 音信号処理装置の制御方法、音信号処理装置及びプログラム
CN109565631B (zh) * 2016-09-28 2020-12-18 雅马哈株式会社 混音器、混音器的控制方法以及程序
US10887688B2 (en) * 2018-09-13 2021-01-05 Yamaha Corporation Audio signal processing apparatus, audio signal processing method, and storage medium that update currently used parameter upon receiving change operation instruction

Also Published As

Publication number Publication date
US20220374111A1 (en) 2022-11-24
US11893211B2 (en) 2024-02-06

Similar Documents

Publication Publication Date Title
US10536231B2 (en) Mixer, control method of mixer, and program
JP5251811B2 (ja) デジタルミキサ
US8170240B2 (en) Audio device
JP2004048272A (ja) 音響信号処理装置
EP2228923A2 (en) Audio signal mixer
JP5387472B2 (ja) ミキシング装置
JP5182188B2 (ja) オーディオミキシング装置及びオーディオミキシング用プログラム
JP2022180072A (ja) 表示方法および表示装置
JP4289402B2 (ja) 音響信号処理システム
JP5182187B2 (ja) オーディオミキシング装置及びオーディオミキシング用プログラム
JP7039985B2 (ja) ミキサ、ミキサの制御方法およびプログラム
US10887688B2 (en) Audio signal processing apparatus, audio signal processing method, and storage medium that update currently used parameter upon receiving change operation instruction
JP2011239019A (ja) ミキシング装置
EP3691146A1 (en) Audio signal processing apparatus, method for processing audio signal, and program
CN102970650B (zh) 音频混合系统
JP5338633B2 (ja) ミキシングコンソールおよびプログラム
CN110992918B (zh) 声音信号处理装置、声音信号处理方法以及存储介质
JP2007195078A (ja) 音響システム設定装置及びプログラム
JP4596262B2 (ja) デジタルミキサおよびプログラム
JP2023139676A (ja) オーディオミキサおよびオーディオミキサの制御方法
JP5861986B2 (ja) ミキシングシステム