JP5540650B2 - Synchronous control device and game machine - Google Patents

Synchronous control device and game machine Download PDF

Info

Publication number
JP5540650B2
JP5540650B2 JP2009249432A JP2009249432A JP5540650B2 JP 5540650 B2 JP5540650 B2 JP 5540650B2 JP 2009249432 A JP2009249432 A JP 2009249432A JP 2009249432 A JP2009249432 A JP 2009249432A JP 5540650 B2 JP5540650 B2 JP 5540650B2
Authority
JP
Japan
Prior art keywords
processing
output
information
unit
control data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009249432A
Other languages
Japanese (ja)
Other versions
JP2011092436A (en
Inventor
健一 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2009249432A priority Critical patent/JP5540650B2/en
Publication of JP2011092436A publication Critical patent/JP2011092436A/en
Application granted granted Critical
Publication of JP5540650B2 publication Critical patent/JP5540650B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Pinball Game Machines (AREA)
  • Display Devices Of Pinball Game Machines (AREA)

Description

本発明は、複数デバイス間における同期技術に関する。   The present invention relates to a synchronization technique between a plurality of devices.

一般に遊技機は、映像を表示させるディスプレイ、音声を出力するスピーカの他、LED(Light Emitting Diode)などの発光部、アクチュエータを用いた可動部など様々な構成を有する。これらの構成が互いに同期した処理を行うようにするために、例えば、特許文献1に開示された技術においては、主基板に設けられたCPU(Central Processing Unit)により、各構成を制御するための制御基板を集中管理している。   In general, a gaming machine has various configurations such as a display for displaying video, a speaker for outputting sound, a light emitting unit such as an LED (Light Emitting Diode), and a movable unit using an actuator. In order to perform processing in which these configurations are synchronized with each other, for example, in the technique disclosed in Patent Document 1, a CPU (Central Processing Unit) provided on the main board is used to control each configuration. The control board is centrally managed.

特開2002−102433号公報JP 2002-102433 A

しかしながら、各構成の制御基板において、主基板から各種の制御指示を受けてから、実際に処理が行われるまでの時間は、制御基板により様々である。したがって、主基板からは、各構成が同期した処理になるように制御指示を出したとしても、現実には、処理時間のずれから、想定したタイミングで各構成の処理が行われず、同期性が損なわれることがあった。   However, in the control board of each configuration, the time from when various control instructions are received from the main board until the actual processing is performed varies depending on the control board. Therefore, even if a control instruction is issued from the main board so that each component is synchronized, the processing of each component is not actually performed at the assumed timing due to a shift in processing time. It was sometimes damaged.

本発明は、上述の事情に鑑みてなされたものであり、特定の組み合わせの構成間における処理の同期性を向上させるとともに、処理内容に応じて同期性を向上させる構成の組み合わせを変更することを目的とする。   The present invention has been made in view of the above-described circumstances, and improves the synchronism of processing between the configurations of a specific combination, and changes the combination of configurations that improves the synchronism according to the processing content. Objective.

上述の課題を解決するため、本発明は、第1の装置において実行される処理に応じて当該第1の装置から出力される第1の制御データであって、当該処理に同期して前記第1の装置および自装置以外の他の装置と自装置との各々において実行するべき処理内容を示す処理情報と当該処理内容を実行するべき装置を示す装置情報とを有する第1の制御データを取得する取得手段と、前記取得手段によって取得された第1の制御データについて、前記装置情報が自装置を示す処理情報に応じた処理を実行する実行手段と、前記実行手段による前記処理に同期して前記他の装置において実行するべき処理内容を決定する決定手段と、前記他の装置において実行するべき処理内容を示す処理情報と、当該他の装置を示す装置情報とを有する第2の制御データを出力する出力手段と、前記出力手段によって出力される第2の制御データの内容を制御する出力制御手段とを具備し、前記出力制御手段は、前記取得手段により取得された前記装置情報が前記他の装置を示す処理情報、または前記決定手段によって決定された処理内容を示す処理情報のいずれかを選択し、選択した処理情報と、当該処理情報が示す処理を実行するべき他の装置を示す装置情報とを有する第2の制御データを前記出力手段から出力させることを特徴とする同期制御装置を提供する。 In order to solve the above-described problem, the present invention provides first control data output from the first device in accordance with processing executed in the first device, and the first control data is synchronized with the processing. 1 of the apparatus and a device other than the own device and the processing information indicating a processing content to be executed in each of the own device, the first control data and a device information indicating the device to executes the processing content obtaining means for obtaining, for the first control data obtained by the obtaining unit, an execution unit for executing a process of the device information corresponding to the processing information, representing its own device, the processing by the execution means determining means for determining the processing content to be executed at the other device in synchronism, the processing information indicating a processing content to be executed at the other device, a second and a device information indicating the other devices System And output means for outputting the data, and an output control means for controlling the contents of the second control data outputted by said output means, said output control means, the device information that has been acquired by the acquisition unit Select either the processing information indicating the other device or the processing information indicating the processing content determined by the determining means, and select the selected processing information and the other device that should execute the processing indicated by the processing information. And a second control data having device information to be output from the output means.

また、別の好ましい態様において、前記第1の装置から出力される第1の制御データは、前記処理情報が示す処理内容の優先度を示す優先度情報を有し、前記出力制御手段は、前記取得手段によって取得された第1の制御データに係る処理内容の優先度と、前記決定手段によって決定された処理内容に対応して決められる優先度とを比較し、比較結果に応じて前記処理情報の選択を行うことを特徴とする。   In another preferable aspect, the first control data output from the first device includes priority information indicating a priority of processing contents indicated by the processing information, and the output control means includes the The priority of the processing content related to the first control data acquired by the acquiring means is compared with the priority determined corresponding to the processing content determined by the determining means, and the processing information is determined according to the comparison result. Is selected.

また、別の好ましい態様において、前記出力制御手段は、前記決定手段によって決定された処理内容を実行するべき他の装置と、前記第1の制御データに係る装置情報が示す他の装置とが異なる場合には、前記選択した処理情報に係る第2の制御データを出力させた後に、前記選択されていない処理情報と、当該処理情報が示す処理を実行するべき他の装置を示す装置情報とを有する第2の制御データを出力させ、前記決定手段によって決定された処理内容を実行するべき他の装置と、前記第1の制御データに係る装置情報が示す他の装置とが同じ場合には、前記選択した処理情報に係る第2の制御データのみを出力させることを特徴とする。   In another preferable aspect, the output control unit is different from another device that should execute the processing content determined by the determination unit and another device indicated by the device information related to the first control data. In this case, after outputting the second control data related to the selected processing information, the non-selected processing information and device information indicating another device that should execute the processing indicated by the processing information. When the other device that is to output the second control data and execute the processing content determined by the determining unit is the same as the other device indicated by the device information related to the first control data, Only the second control data related to the selected processing information is output.

また、別の好ましい態様において、前記実行手段によって実行される処理は、オーディオデータを生成するものであり、前記出力手段は、前記出力する第2の制御データと前記生成したオーディオデータとを時分割で出力し、前記他の装置には、前記オーディオデータに係る音を増幅して放音手段に放音させる装置が含まれることを特徴とする。   In another preferred embodiment, the processing executed by the execution means generates audio data, and the output means time-divides the second control data to be output and the generated audio data. The other device includes a device that amplifies the sound related to the audio data and causes the sound emitting means to emit the sound.

また、本発明は、上記記載の同期制御装置と、利用者の操作を受け付ける操作手段と、前記操作手段において受け付けられた操作に応じた処理を実行するように前記第1の装置に指示する指示手段と、前記第1の装置であって、前記指示手段によって指示された処理を実行し、当該処理に応じて前記第1の制御データを出力する第1の処理装置と、前記他の装置であって、前記出力手段によって出力された第2の制御データに応じた処理を実行する第2の処理装置とを具備することを特徴とする遊技機を提供する。   In addition, the present invention provides the synchronization control device described above, an operation unit that receives a user's operation, and an instruction that instructs the first device to execute a process according to the operation received by the operation unit. Means, a first apparatus that executes a process instructed by the instructing means, and outputs the first control data according to the process, and the other apparatus. And a second processing device that executes processing according to the second control data output by the output means.

本発明によれば、特定の組み合わせの構成間における処理の同期性を向上させるとともに、処理内容に応じて同期性を向上させる構成の組み合わせを変更することができる。   ADVANTAGE OF THE INVENTION According to this invention, while improving the synchronism of a process between the structure of a specific combination, the combination of the structure which improves a synchronism according to the processing content can be changed.

実施形態に係る遊技機の外観を説明する図である。It is a figure explaining the appearance of the gaming machine according to the embodiment. 実施形態に係る遊技機の構成を説明するブロック図である。It is a block diagram explaining the structure of the game machine which concerns on embodiment. 実施形態に係る表示用デバイスの構成を説明するブロック図である。It is a block diagram explaining the structure of the display device which concerns on embodiment. 実施形態に係る表示用デバイスの処理テーブルを説明する図である。It is a figure explaining the processing table of the device for a display concerning an embodiment. 実施形態に係るシーケンスデータの例を説明する図である。It is a figure explaining the example of the sequence data which concerns on embodiment. 実施形態に係る音声用デバイスの構成を説明するブロック図である。It is a block diagram explaining the structure of the device for audio | voices concerning embodiment. 実施形態に係る音声用デバイスの処理テーブルを説明する図である。It is a figure explaining the processing table of the device for sound concerning an embodiment. 実施形態に係る音声用デバイスから出力される出力データを説明する図である。It is a figure explaining the output data output from the device for sound concerning an embodiment. 実施形態に係る制御データの内容を説明する図である。It is a figure explaining the content of the control data which concerns on embodiment. 実施形態に係る発光用デバイスの構成を説明するブロック図である。It is a block diagram explaining the structure of the device for light emission which concerns on embodiment. 実施形態に係る動作用デバイスの構成を説明するブロック図である。It is a block diagram explaining the structure of the device for operation | movement which concerns on embodiment. 実施形態に係る動作用デバイスの処理テーブルを説明する図である。It is a figure explaining the processing table of the device for operation concerning an embodiment. 第3発光部における同期の態様を説明する図である。It is a figure explaining the aspect of the synchronization in a 3rd light emission part.

<実施形態>
[概要]
図1は、実施形態に係る遊技機1の外観を説明する図である。この例における遊技機1は、本発明に係る同期制御装置を有するパチンコ遊技機である。遊技機1は、操作部16が操作されると、遊技球であるパチンコ球を射出し、パチンコ球の動きに応じて各種制御を行う。
この例においては、各種制御とは、映像を表示する液晶ディスプレイなどの表示部12における表示内容、音声を放音するスピーカなどの放音部13における放音内容、LEDなどの発光体による発光を行う第1発光部14−1、第2発光部14−2、第3発光部14−3における発光内容、アクチュエータなどにより動作する役物などの第1可動部15−1、第2可動部15−2の動作内容などの各制御である。これらの制御は、操作部16によって受け付けられた操作によりパチンコ球が射出されたとき、入賞口に設けられた入賞口センサ11をパチンコ球が通過したとき、などを契機として、その内容が変化する。
<Embodiment>
[Overview]
FIG. 1 is a diagram illustrating an appearance of a gaming machine 1 according to the embodiment. The gaming machine 1 in this example is a pachinko gaming machine having the synchronous control device according to the present invention. When the operation unit 16 is operated, the gaming machine 1 ejects a pachinko ball that is a game ball, and performs various controls according to the movement of the pachinko ball.
In this example, the various controls include the display content on the display unit 12 such as a liquid crystal display that displays video, the sound output content in the sound output unit 13 such as a speaker that emits sound, and light emission by a light emitter such as an LED. The first movable part 15-1, the second movable part 15 such as the first light-emitting part 14-1, the second light-emitting part 14-2, the light emission content in the third light-emitting part 14-3 to be performed, and an accessory operated by an actuator or the like. -2 for each operation. The contents of these controls change when the pachinko ball is ejected by an operation received by the operation unit 16 or when the pachinko ball passes the winning port sensor 11 provided in the winning port. .

図2は、実施形態に係る遊技機1の構成を説明するブロック図である。遊技機1は、上述の各種制御を行うため、上述した構成のほか、主制御部110、表示用デバイス120、音声用デバイス130、発光用デバイスA140−1、発光用デバイスB140−2、動作用デバイス150および音響処理部200を有する。音声用デバイス130、動作用デバイス150は、それぞれが本発明に係る同期制御装置に対応する。   FIG. 2 is a block diagram illustrating a configuration of the gaming machine 1 according to the embodiment. Since the gaming machine 1 performs the above-described various controls, in addition to the above-described configuration, the gaming machine 1 includes the main control unit 110, the display device 120, the audio device 130, the light emitting device A140-1, the light emitting device B140-2, and the operation device. A device 150 and an acoustic processing unit 200 are included. Each of the audio device 130 and the operation device 150 corresponds to the synchronization control device according to the present invention.

主制御部110は、CPU、ROM(Read Only Memory)、RAM(Random Access Memory)などを有し、ROMに記憶されている制御プログラムをRAMにロードして実行することにより各種制御を行う。この例においては、主制御部110は、遊技機1の動作状況に応じた演出効果を与えるために、表示用デバイス120に対して処理させる内容の指示を示す指示情報を出力する。なお、この指示情報は、後述する音声用デバイス130の出力部136から出力される出力データと同様な出力形式の制御データとして出力されるようにしてもよいし、別の方法によって出力してもよい。   The main control unit 110 includes a CPU, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and performs various controls by loading a control program stored in the ROM into the RAM and executing it. In this example, the main control unit 110 outputs instruction information indicating an instruction of contents to be processed by the display device 120 in order to provide a presentation effect according to the operation state of the gaming machine 1. The instruction information may be output as control data in the same output format as output data output from the output unit 136 of the audio device 130 described later, or may be output by another method. Good.

この指示情報の出力は、上述したように、操作部16によって受け付けられた操作によりパチンコ球が射出されたとき、一定期間パチンコ球の射出が行われなかったとき、入賞口センサ11からパチンコ球が通過したことを示す検出信号が出力されたときなどに行われる。ここで、入賞口センサ11から検出信号が出力されたときには、主制御部110は、内部抽選処理を行い、処理結果に応じた指示情報を出力する。内部抽選処理とは、例えば、当落の抽選、当落の結果として表示部12に表示させる停止図柄の抽選、リーチ予告、リーチアクションなどの演出内容の抽選などである。当選の場合は、さらに当選処理が行われ、その処理結果に応じた指示情報がさらに出力される。
このように、主制御部110は、操作部16によって受け付けられた操作に応じた処理を表示用デバイス120に実行させるための指示手段として機能する。
As described above, the instruction information is output when the pachinko ball is ejected by the operation received by the operation unit 16 or when the pachinko ball is not ejected for a certain period of time, This is performed, for example, when a detection signal indicating passage has been output. Here, when a detection signal is output from the winning opening sensor 11, the main control unit 110 performs an internal lottery process and outputs instruction information corresponding to the processing result. The internal lottery process includes, for example, winning lottery, lottery of symbols to be displayed on the display unit 12 as a result of winning, lottery of contents of effects such as reach notice, reach action, and the like. In the case of winning, a winning process is further performed, and instruction information corresponding to the processing result is further output.
Thus, the main control unit 110 functions as an instruction unit for causing the display device 120 to execute processing according to the operation received by the operation unit 16.

[表示用デバイス120の構成]
図3は、実施形態に係る表示用デバイス120の構成を説明するブロック図である。表示用デバイス120は、指示取得部121、実行部122、データ記憶部123、処理テーブル124、決定部125および出力部126を有する。
指示取得部121は、主制御部110から出力される指示情報を取得し、実行部122および決定部125に出力する。
[Configuration of display device 120]
FIG. 3 is a block diagram illustrating the configuration of the display device 120 according to the embodiment. The display device 120 includes an instruction acquisition unit 121, an execution unit 122, a data storage unit 123, a processing table 124, a determination unit 125, and an output unit 126.
The instruction acquisition unit 121 acquires instruction information output from the main control unit 110 and outputs the instruction information to the execution unit 122 and the determination unit 125.

実行部122は、入力された指示情報に応じた映像データをデータ記憶部123から読み出して再生し、表示部12に出力する。これにより表示部12においては、この映像データに応じた映像が表示される。また、実行部122は、映像データを再生することにより表示部12において表示されている映像に対応するフレーム(映像データの再生位置)を示すフレーム情報を、決定部125に順次出力する。
データ記憶部123は、表示させるべき映像の内容を示す映像データが、指示情報によって指示される各処理内容(以下、「指示処理」という)に対応して複数記憶されている。そのため、実行部122は、指示情報が入力されると、その「指示処理」に応じて、一の映像データを選択することができる。ここで、「指示処理」は、以下に示すように、表示用デバイス120において処理すべき内容を指定する識別子「G1」、「G2」、・・・を示している。
The execution unit 122 reads out and reproduces video data corresponding to the input instruction information from the data storage unit 123, and outputs it to the display unit 12. Thereby, the display unit 12 displays a video corresponding to the video data. The execution unit 122 also sequentially outputs frame information indicating frames (video data reproduction position) corresponding to the video displayed on the display unit 12 to the determination unit 125 by reproducing the video data.
The data storage unit 123 stores a plurality of pieces of video data indicating the content of video to be displayed corresponding to each processing content (hereinafter referred to as “instruction processing”) indicated by the instruction information. Therefore, when the instruction information is input, the execution unit 122 can select one video data according to the “instruction process”. Here, the “instruction processing” indicates identifiers “G1”, “G2”,... That specify the contents to be processed in the display device 120 as described below.

図4は、実施形態に係る表示用デバイス120の処理テーブル124を説明する図である。処理テーブル124は、「指示処理」における各映像表示処理に同期して各デバイスにおいて処理させるべき内容を規定したテーブルである。この例においては、音声用デバイス130において処理させる内容を示す「音声指示」、動作用デバイス150において処理させる内容を示す「動作処理」、発光用デバイスA140−1において処理させる内容を示す「発光A処理」、発光用デバイスB140−2において処理させる内容を示す「発光B処理」が、「指示処理」ごとに対応して定められている。例えば、「指示処理」が「G1」であれば、この処理に同期して処理させる内容は、「音声指示」は「S1」、「動作処理」は「Ms1g」、「発光A処理」は「LAs1g」、「発光B処理」は「LBs1g」である。なお、「この例においては、全ての「指示処理」について対応するものがある前提としたが、対応するものがない場合があってもよい。   FIG. 4 is a diagram illustrating the processing table 124 of the display device 120 according to the embodiment. The processing table 124 defines the contents to be processed in each device in synchronization with each video display process in the “instruction process”. In this example, “voice instruction” indicating the content to be processed by the audio device 130, “operation processing” indicating the content to be processed by the operation device 150, and “light emission A” indicating the content to be processed by the light emitting device A 140-1. “Processing” and “light emission B processing” indicating the contents to be processed by the light emitting device B 140-2 are determined for each “instruction processing”. For example, if “instruction process” is “G1”, the contents to be processed in synchronization with this process are “S1” for “voice instruction”, “Ms1g” for “operation process”, and “Ms1g” for “light emission A process”. “LAs1g” and “light emission B treatment” are “LBs1g”. “In this example, it is assumed that there is a corresponding item for all“ instruction processing ”, but there may be a case where there is no corresponding item.

「音声指示」における「S1」、「S2」、・・・は、「指示処理」における「G1」、「G2」、・・・により表示部12において表示される映像に同期して、音声用デバイス130において処理すべき内容を指定する識別子である。
「動作処理」における「Ms1g」、「Ms2g」、・・・は、「指示処理」における「G1」、「G2」、・・・により表示部12において表示される映像に同期して、動作用デバイス150において処理すべき内容を指定するものであって、表示される映像の各フレームにおいて処理すべき内容を指定するシーケンスデータである。「発光A処理」、「発光B処理」についても同様である。
“S1”, “S2”,... In “Voice instruction” are synchronized with the video displayed on the display unit 12 by “G1”, “G2”,. It is an identifier that designates the content to be processed in the device 130.
“Ms1g”, “Ms2g”,... In the “operation process” are synchronized with the video displayed on the display unit 12 by “G1”, “G2”,. This is the sequence data that specifies the content to be processed in the device 150 and specifies the content to be processed in each frame of the displayed video. The same applies to “light emission A processing” and “light emission B processing”.

図5は、実施形態に係るシーケンスデータの例を説明する図である。この図は、「動作処理」である「Ms1g」の内容を示すものであり、各フレームにおける「動作指示」およびその「動作指示」の実行についての優先順位を示す「優先度」が定められている。「動作指示」とは、表示部12において表示される映像に同期して、動作用デバイス150において処理すべき内容を指定する識別子である。また、「優先度」は、この例においては、「0」から「3」までの4段階で定められ、数が大きいほど対応する動作指示が優先されることを示す。
図5に示す場合においては、「フレーム」が「00:10:16」においては、「動作指示」は「M1」、「優先度」は「2」である。これは、表示部12において表示されている映像のフレームが「00:10:16」であるときに、動作用デバイス150に対して、「M1」の動作指示を優先度「2」で行うことを示している。後述するように、動作用デバイス150は、「M1」の動作指示を示す制御データを取得すると、動作指示「M1」に応じた動作を第1可動部15−1、第2可動部15−2に行わせる。
なお、「音声指示」についてもこのようなシーケンスデータであってもよい。この場合には、「S1」、「S2」、・・・は、シーケンスデータ中の音声指示とし、処理テーブルにおいてこのシーケンスデータと指示処理との関係を定めればよい。
FIG. 5 is a diagram illustrating an example of sequence data according to the embodiment. This figure shows the contents of “Ms1g”, which is “operation processing”, and “priority” indicating the priority order for execution of “operation instruction” and “operation instruction” in each frame is defined. Yes. The “operation instruction” is an identifier that specifies the content to be processed in the operation device 150 in synchronization with the video displayed on the display unit 12. Further, in this example, “priority” is determined in four stages from “0” to “3”, and the larger the number, the higher the priority of the corresponding operation instruction.
In the case shown in FIG. 5, when the “frame” is “00:10:16”, the “operation instruction” is “M1” and the “priority” is “2”. This is because when the video frame displayed on the display unit 12 is “00:10:16”, the operation instruction “M1” is given to the operation device 150 with the priority “2”. Is shown. As will be described later, when the operation device 150 acquires the control data indicating the operation instruction “M1”, the operation device 150 performs an operation corresponding to the operation instruction “M1” as the first movable unit 15-1 and the second movable unit 15-2. To do.
The “voice instruction” may also be such sequence data. In this case, “S1”, “S2”,... Are voice instructions in the sequence data, and the relationship between the sequence data and the instruction process may be determined in the processing table.

決定部125は、指示情報が入力されると、処理テーブル124を参照して、その指示情報に係る「指定処理」に対応する「音声指示」を決定する。そして、決定部125は、「音声用デバイス130」を識別する「装置情報」と、決定した「音声指示」を示す「処理情報」と、「優先度」を示す「優先度情報」を対応付けて、出力部126に対して出力する。「音声指示」に対応する「優先度」は「3」とする。
また、決定部125は、処理テーブル124を参照して、指示情報に係る「指定処理」に対応する「動作処理」を選択する。そして、実行部122から順次入力されるフレーム情報を参照し、選択した「動作処理」のシーケンスデータにおいて、フレーム情報が示すフレームに対応する「動作指示」および「優先度」を決定する。そして、決定部125は、「動作用デバイス150」を識別する「装置情報」と、決定した「動作指示」を示す「処理情報」と、「優先度」を示す「優先度情報」とを対応付けて、出力部126に対して出力する。
決定部125は、「発光A処理」、「発光B処理」についても、「動作処理」と同様にして、フレーム情報に応じて、「発光A指示」、「発光B指示」(それぞれ「動作指示」に対応)、およびそれぞれの「優先度」を決定し、「発光用デバイスA140−1」を識別する「装置情報」と、決定した「発光A指示」を示す「処理情報」と、「優先度」を示す「優先度情報」とを対応付け、また「発光用デバイスB140−2」を識別する「装置情報」と、決定した「発光B指示」を示す「処理情報」と、「優先度」を示す「優先度情報」とを対応付けて出力部126に対して出力する。また、決定部125は、入力されたフレーム情報についても出力部126に対して出力する。なお、このフレーム情報は、「処理情報」に含まれるようにしてもよい。
When the instruction information is input, the determination unit 125 refers to the processing table 124 and determines the “voice instruction” corresponding to the “designation process” related to the instruction information. Then, the determination unit 125 associates “apparatus information” that identifies the “speech device 130”, “processing information” that indicates the determined “voice instruction”, and “priority information” that indicates “priority”. Output to the output unit 126. The “priority” corresponding to “voice instruction” is “3”.
Further, the determination unit 125 refers to the processing table 124 and selects “operation processing” corresponding to “designation processing” related to the instruction information. Then, with reference to the frame information sequentially input from the execution unit 122, “operation instruction” and “priority” corresponding to the frame indicated by the frame information are determined in the selected sequence data of “operation processing”. Then, the determination unit 125 associates “device information” that identifies “the device for operation 150”, “processing information” that indicates the determined “operation instruction”, and “priority information” that indicates “priority”. In addition, the data is output to the output unit 126.
For the “light emission A process” and “light emission B process”, the determination unit 125 also performs “light emission A instruction” and “light emission B instruction” (respectively “operation instruction” in accordance with the frame information in the same manner as the “operation process”. ”), And“ priority ”of each,“ apparatus information ”for identifying“ light emitting device A140-1 ”,“ processing information ”indicating the determined“ light emission A instruction ”, and“ priority ” “Priority information” indicating “degree”, “device information” identifying “light emitting device B 140-2”, “processing information” indicating the determined “light emission B instruction”, and “priority” "Priority information" indicating "is output to the output unit 126 in association with each other. The determination unit 125 also outputs the input frame information to the output unit 126. This frame information may be included in “processing information”.

出力部126は、決定部125において対応付けられて出力された各種情報が入力されると、各種情報を制御データとして出力する。具体的には、出力部126は、決定部125から入力された「装置情報」、「処理情報」および「優先度情報」を示す制御データを生成し、音声用デバイス130に出力する。また、出力部126は、「フレーム情報」が入力されると、その「フレーム情報」を音声用デバイス130に出力する。この制御データを出力するときには、後述する音声用デバイス130の出力部136から出力される出力データと同様な出力形式で出力されるようにしてもよいし、別のものであってもよい。
なお、制御データについては、同時に複数出力することができない場合には、優先度に応じた順序など、予め決められたアルゴリズムにしたがった順序で送信すればよい。
When the various types of information output in association with each other in the determination unit 125 are input, the output unit 126 outputs the various types of information as control data. Specifically, the output unit 126 generates control data indicating “apparatus information”, “processing information”, and “priority information” input from the determination unit 125 and outputs the control data to the audio device 130. Further, when “frame information” is input, the output unit 126 outputs the “frame information” to the audio device 130. When this control data is output, it may be output in the same output format as the output data output from the output unit 136 of the audio device 130 described later, or may be different.
If a plurality of control data cannot be output simultaneously, the control data may be transmitted in an order according to a predetermined algorithm such as an order according to priority.

[音声用デバイス130の構成]
図6は、実施形態に係る音声用デバイス130の構成を説明するブロック図である。音声用デバイス130は、取得部131、実行部132、データ記憶部133、処理テーブル134、決定部135、出力部136および出力制御部137を有する。
取得部131は、表示用デバイス120から出力される制御データおよびフレーム情報を取得し、フレーム情報については、実行部132に出力し、制御データについては、実行部132、決定部135および出力制御部137に出力する。
[Configuration of audio device 130]
FIG. 6 is a block diagram illustrating the configuration of the audio device 130 according to the embodiment. The audio device 130 includes an acquisition unit 131, an execution unit 132, a data storage unit 133, a processing table 134, a determination unit 135, an output unit 136, and an output control unit 137.
The acquisition unit 131 acquires control data and frame information output from the display device 120, outputs the frame information to the execution unit 132, and executes the control unit 132, the determination unit 135, and the output control unit for the control data. To 137.

実行部132は、入力された制御データの「装置情報」が「音声用デバイス130」を示す場合に、制御データの「処理情報」が示す「音声指示」に応じた楽音データをデータ記憶部133から読み出す。このとき、実行部132は、読み出した楽音データを「フレーム情報」が示すフレームにしたがって再生して、ストリーム形式のオーディオデータとして出力部136に出力する。また、実行部132は、出力するオーディオデータに対応したフレームを示すフレーム情報を決定部135に出力する。なお、オーディオデータに係るフレームの分解能は、映像データに係るフレームとは異なるものであってもよい。
データ記憶部133は、放音させるべき音声の内容を示す楽音データが、制御データが示す「音声指示」の各識別子に対応して複数記憶されている。そのため、実行部132は、制御データが入力されると、その内容に応じて、一の楽音データを選択することができる。
When the “device information” of the input control data indicates “sound device 130”, the execution unit 132 stores the musical sound data corresponding to the “voice instruction” indicated by the “processing information” of the control data in the data storage unit 133. Read from. At this time, the execution unit 132 reproduces the read musical sound data according to the frame indicated by the “frame information”, and outputs it to the output unit 136 as stream format audio data. Further, the execution unit 132 outputs frame information indicating a frame corresponding to the audio data to be output to the determination unit 135. Note that the resolution of a frame related to audio data may be different from that of a frame related to video data.
The data storage unit 133 stores a plurality of pieces of musical sound data indicating the content of the sound to be emitted corresponding to each “voice instruction” identifier indicated by the control data. Therefore, when the control data is input, the execution unit 132 can select one musical sound data according to the content.

図7は、実施形態に係る音声用デバイス130の処理テーブル134を説明する図である。処理テーブル134は、「音声指示」に係るオーディオデータに同期して各デバイスにおいて処理させるべき内容を規定したテーブルである。この例においては、「音声指示」に対応して、「動作処理」、「発光A処理」、「発光B処理」が定められている。例えば、「音声指示」が「S2」であれば、この処理に同期して処理させる内容は、「動作処理」は「Ms2s」、「発光A処理」は「LAs2s」、「発光B処理」は「LBs2s」である。なお、「この例においては、全ての「音声指示」について対応するものがある前提としたが、対応するものがない場合があってもよい。   FIG. 7 is a diagram illustrating the processing table 134 of the audio device 130 according to the embodiment. The processing table 134 is a table that defines the contents to be processed in each device in synchronization with the audio data related to the “voice instruction”. In this example, “operation processing”, “light emission A processing”, and “light emission B processing” are defined corresponding to “voice instructions”. For example, if the “voice instruction” is “S2”, the contents to be processed in synchronization with this process are “Ms2s” for “Operation process”, “LAs2s” for “Light emission A process”, and “LAs2s process” for “Light emission B process”. “LBs2s”. “In this example, it is assumed that there is a corresponding one for all“ voice instructions ”, but there may be a case where there is no corresponding one.

処理テーブル134における「動作処理」、「発光A処理」、「発光B処理」については、処理テーブル124に係る場合と同様に、上述の図5に示すシーケンスデータである。この例においては、処理テーブル134に係るシーケンスデータは、処理テーブル124に係るシーケンスデータよりも「優先度」が低く、また、動作指示等が定められているフレームの数が多くなっているもの(動作指示等の頻度が多い)とする。   “Operation process”, “light emission A process”, and “light emission B process” in the process table 134 are the sequence data shown in FIG. 5 described above, as in the case of the process table 124. In this example, the sequence data related to the processing table 134 has a lower “priority” than the sequence data related to the processing table 124 and has a larger number of frames for which operation instructions and the like are defined ( The frequency of operation instructions etc. is high).

決定部135は、制御データが入力されると、その制御データの「装置情報」が「音声用デバイス130」を示す場合には、処理テーブル134を参照して、その制御データの「処理情報」が示す「音声指示」に対応する「動作処理」を選択する。そして、実行部132から順次入力されるフレーム情報を参照し、選択した「動作処理」のシーケンスデータにおいて、フレーム情報が示すフレームに対応する「動作指示」および「優先度」を決定する。そして、決定部135は、「動作用デバイス150」を識別する「装置情報」と、決定した「動作指示」を示す「処理情報」と、「優先度」を示す「優先度情報」とを対応付けて、出力制御部137に対して出力する。
決定部135は、「発光A処理」、「発光B処理」についても、「動作処理」と同様にして、フレーム情報に応じて、「発光A指示」、「発光B指示」(それぞれ「動作指示」に対応)、およびそれぞれの「優先度」を決定し、「発光用デバイスA140−1」を識別する「装置情報」と、決定した「発光A指示」を示す「処理情報」と、「優先度」を示す「優先度情報」とを対応付け、また「発光用デバイスB140−2」を識別する「装置情報」と、決定した「発光B指示」を示す「処理情報」と、「優先度」を示す「優先度情報」とを対応付けて出力制御部137に対して出力する。
決定部135が各種情報(「装置情報」、「優先度」および「処理情報」の組み合わせを、以下「各種情報」という)を出力するときは、上述のようにしてフレーム情報に応じて出力されるから、実行部132における処理が実行中であることを意味する。
When the control data is input, the determination unit 135 refers to the processing table 134 when the “apparatus information” of the control data indicates “sound device 130”, and the “processing information” of the control data. The “operation process” corresponding to the “voice instruction” indicated by is selected. Then, with reference to the frame information sequentially input from the execution unit 132, “operation instruction” and “priority” corresponding to the frame indicated by the frame information are determined in the selected sequence data of “operation processing”. Then, the determination unit 135 associates “device information” for identifying “operation device 150”, “processing information” indicating the determined “operation instruction”, and “priority information” indicating “priority”. In addition, the data is output to the output control unit 137.
For the “light emission A process” and “light emission B process”, the determination unit 135 also performs the “light emission A instruction” and “light emission B instruction” (“operation instruction ”), And“ priority ”of each,“ apparatus information ”for identifying“ light emitting device A140-1 ”,“ processing information ”indicating the determined“ light emission A instruction ”, and“ priority ” “Priority information” indicating “degree”, “device information” identifying “light emitting device B 140-2”, “processing information” indicating the determined “light emission B instruction”, and “priority” "Priority information" indicating "is output to the output control unit 137 in association with each other.
When the determining unit 135 outputs various information (a combination of “device information”, “priority”, and “processing information” is hereinafter referred to as “various information”), it is output according to the frame information as described above. Therefore, this means that the processing in the execution unit 132 is being executed.

出力制御部137は、決定部135において対応付けられて出力された各種情報が入力されると、これらを出力部136に出力する。決定部135から各種情報が入力されるときに、取得部131からも制御データが入力されると、この制御データの「装置情報」が「音声用デバイス130」以外を示す場合には、この制御データに係る各種情報と、決定部135から入力された各種情報とのいずれかを選択して出力部136に出力する。いずれかを選択するかは、双方の優先度情報が示す優先度を比較することによって行われ、この例においては、優先度が高い方を選択する。なお、優先度が同じ場合には、予め決められたアルゴリズム(例えば、決定部135の出力優先など)にしたがって選択すればよい。
このとき、選択されなかった方の各種情報は、選択された方の各種情報が出力部136に出力された後に、続いて出力される場合と、出力されずにその各種情報が破棄される場合がある。この例においては、続いて出力される場合は、比較された各種情報のうち、「装置情報」が互いに異なる場合である。一方、出力されずにその各種情報が破棄される場合は、「装置情報」が示す装置が互いに同じ場合であり、これにより、優先度の低い情報によりその装置が制御されることを防止する。このとき、選択されなかった方については、一定期間選択されない状態を続けるようにしてもよい。なお、この場合分けは一例であって、場合分けをせずに、選択されなかった方は、必ず選択された方に続いて出力されるようにしてもよいし、出力されないものとしてもよい。
出力部136は、出力制御部137から出力される各種情報を示す制御データと、実行部132から入力されるオーディオデータとを有する出力データを出力する。
When various types of information output in association with each other by the determination unit 135 are input, the output control unit 137 outputs these to the output unit 136. When various pieces of information are input from the determination unit 135 and control data is also input from the acquisition unit 131, this control data indicates that the “device information” indicates other than “sound device 130”. One of various information related to the data and various information input from the determination unit 135 is selected and output to the output unit 136. Which one is selected is determined by comparing the priorities indicated by both priority information. In this example, the higher priority is selected. When the priorities are the same, selection may be made according to a predetermined algorithm (for example, output priority of the determination unit 135).
At this time, various types of information not selected are output after the various types of selected information are output to the output unit 136, and when the various types of information are discarded without being output. There is. In this example, the case where the information is subsequently output is a case where the “device information” is different among various pieces of compared information. On the other hand, when the various types of information are discarded without being output, the devices indicated by the “device information” are the same as each other, thereby preventing the device from being controlled by low priority information. At this time, the unselected state may be kept unselected for a certain period. Note that this case classification is merely an example, and those who have not been selected without performing case classification may be output following the selected one or may not be output.
The output unit 136 outputs output data having control data indicating various information output from the output control unit 137 and audio data input from the execution unit 132.

図8は、実施形態に係る音声用デバイス130から出力される出力データを説明する図である。出力データは、ビットクロック(Bck)、LRクロック(LRck)およびデータ部(Data)を有し、オーディオデータの出力に用いられる形式である。データ部は、32ビットのうち、16ビットがオーディオデータ部分であり、残りの通常未使用である16ビットが制御データ部分として用いられる。このように、出力データは、オーディオデータ部分と制御データ部分とを時分割で送信する構成である。ビットクロックは、データ部の符号位置を示し、LRクロックは、データ部のオーディオデータのうち、ステレオ2chの左側のチャンネルと右側のチャンネルを区別するものである。   FIG. 8 is a diagram illustrating output data output from the audio device 130 according to the embodiment. The output data has a bit clock (Bck), an LR clock (LRck), and a data portion (Data), and is a format used for outputting audio data. Of the 32 bits, 16 bits of the data portion are the audio data portion, and the remaining 16 bits that are normally unused are used as the control data portion. As described above, the output data is configured to transmit the audio data portion and the control data portion in a time division manner. The bit clock indicates the code position of the data portion, and the LR clock distinguishes the left channel and the right channel of stereo 2ch in the audio data of the data portion.

図9は、実施形態に係る制御データの内容を説明する図である。制御データは、上述したように、「装置情報」、「優先度情報」、「処理情報」を有し、この例においては、それぞれ、3bit、2bit、11bitである。「処理情報」の11bitについては、さらに、3bit(制御の種類)と8bit(パラメータ)とに分けて用いてもよい。   FIG. 9 is a diagram for explaining the contents of the control data according to the embodiment. As described above, the control data includes “device information”, “priority information”, and “processing information”, and in this example, is 3 bits, 2 bits, and 11 bits, respectively. The 11 bits of “processing information” may be further divided into 3 bits (control type) and 8 bits (parameters).

このように、出力部136は、図8、図9に示す態様の出力データを、発光用デバイスA140−1、動作用デバイス150および音響処理部200に対して出力する。   As described above, the output unit 136 outputs the output data in the modes illustrated in FIGS. 8 and 9 to the light emitting device A 140-1, the operation device 150, and the acoustic processing unit 200.

[音響処理部200の構成]
音響処理部200は、音声用デバイス130から出力された出力データを取得し、出力データに含まれるオーディオデータに対して、デジタル−アナログ変換をして増幅する音響処理を施し放音部13に出力する。これにより、放音部13からオーディオデータに係る音が放音される。このとき、音響処理部200は、音響処理として、音場効果の付与などを行ってもよい。なお、この音響処理は音声用デバイス130において施してもよい。
[Configuration of Acoustic Processing Unit 200]
The sound processing unit 200 acquires the output data output from the sound device 130, performs sound processing that amplifies the audio data included in the output data by performing digital-analog conversion, and outputs the audio data to the sound emitting unit 13. To do. Thereby, the sound according to the audio data is emitted from the sound emitting unit 13. At this time, the acoustic processing unit 200 may perform application of a sound field effect or the like as the acoustic processing. Note that this acoustic processing may be performed in the audio device 130.

[発光用デバイスA140−1の構成]
図10は、実施形態に係る発光用デバイスA140−1の構成を説明するブロック図である。発光用デバイスA140−1は、取得部141、実行部142、データ記憶部143およびDA部148を有する。
取得部141は、音声用デバイス130から出力される出力データを取得し、出力データにおける制御データ部分を実行部142に出力する。
実行部142は、入力された制御データの「装置情報」が「発光用デバイスA140−1」を示す場合に、制御データが示す「発光A指示」に応じた処理パターンデータをデータ記憶部143から読み出して再生して得られる再生データをDA部148に出力する。
[Configuration of Light-Emitting Device A140-1]
FIG. 10 is a block diagram illustrating a configuration of the light emitting device A140-1 according to the embodiment. The light emitting device A140-1 includes an acquisition unit 141, an execution unit 142, a data storage unit 143, and a DA unit 148.
The acquisition unit 141 acquires output data output from the audio device 130 and outputs a control data portion in the output data to the execution unit 142.
When the “apparatus information” of the input control data indicates “light emission device A 140-1”, the execution unit 142 receives processing pattern data corresponding to the “light emission A instruction” indicated by the control data from the data storage unit 143. Playback data obtained by reading and playing is output to the DA unit 148.

データ記憶部143は、第1発光部14−1、第2発光部14−2における発光処理の態様(第1発光部14−1、第2発光部14−2に対して与えるべき電流の変化態様など)を示す処理パターンデータが、制御データが示す「発光A指示」の各識別子に対応して複数記憶されている。
DA部148は、実行部142から入力された再生データをデジタルアナログ変換し、変換結果に応じた態様で、第1発光部14−1、第2発光部14−2に対して電流を供給するなどして、それぞれの発光態様を制御する。これにより、第1発光部14−1、第2発光部14−2は、制御データが示す「発光A指示」に応じた態様で発光する。
The data storage unit 143 is a mode of light emission processing in the first light emitting unit 14-1 and the second light emitting unit 14-2 (change in current to be applied to the first light emitting unit 14-1 and the second light emitting unit 14-2. A plurality of processing pattern data indicating a mode etc. is stored corresponding to each identifier of “light emission A instruction” indicated by the control data.
The DA unit 148 converts the reproduction data input from the execution unit 142 from digital to analog, and supplies current to the first light emitting unit 14-1 and the second light emitting unit 14-2 in a manner corresponding to the conversion result. For example, the respective light emission modes are controlled. Accordingly, the first light emitting unit 14-1 and the second light emitting unit 14-2 emit light in a mode corresponding to the “light emission A instruction” indicated by the control data.

ここで、この「発光A指示」を示す制御データは、表示用デバイス120から出力され音声用デバイス130を経由して取得したものか、音声用デバイス130から出力されたものかのいずれかである。すなわち、この制御データは、映像に同期したタイミングで出力されたものか、音声に同期したタイミングで出力されたものかのいずれかとなる。したがって、第1発光部14−1、第2発光部14−2における発光態様は、いずれの制御データによるものかによって、映像と直接同期したもの、または音声と直接同期したものとなる。
発光の演出の内容によっては、映像に同期させることが望ましい場合、音声に同期させることが望ましい場合があるが、各デバイスにおける処理テーブルにおいて定められる各処理における優先度の規定によって、いずれに同期させるかを制御することができる。
例えば、放音部13に近い第2発光部14−2を主として発光させる発光態様である場合には、音声と直接同期させることにより同期性が向上して大きな演出効果を得ることができる。
Here, the control data indicating the “light emission A instruction” is either output from the display device 120 and acquired via the audio device 130 or output from the audio device 130. . That is, the control data is either output at a timing synchronized with the video or output at a timing synchronized with the audio. Therefore, the light emission mode in the first light-emitting unit 14-1 and the second light-emitting unit 14-2 is either directly synchronized with video or directly synchronized with audio depending on which control data is used.
Depending on the content of the light emission effect, it may be desirable to synchronize with the video, or it may be desirable to synchronize with the audio, but depending on the priority definition in each process defined in the process table in each device Can be controlled.
For example, in the case of a light emission mode in which the second light emitting unit 14-2 close to the sound emitting unit 13 mainly emits light, the synchronization is improved by synchronizing directly with the sound, and a large effect can be obtained.

以上、発光用デバイスA140−1について説明したが、発光用デバイスB140−2についても同様である。ただし、発光用デバイスB140−2は、動作用デバイス150と接続されているため、動作用デバイス150から制御データを取得する。
発光用デバイスB140−2において取得される「発光B指示」を示す制御データは、表示用デバイス120から出力され音声用デバイス130および動作用デバイス150を経由して取得したもの、音声用デバイス130から出力され動作用デバイス150を経由して取得したもの、または動作用デバイス150から出力されたもののいずれかである。したがって、第3発光部14−3における発光態様は、表示部12に表示される映像、放音部13から放音される音声、または第2可動部15−2(詳細は後述)の動作のいずれかと直接同期したものとなる。
The light emitting device A140-1 has been described above, but the same applies to the light emitting device B140-2. However, since the light emitting device B 140-2 is connected to the operation device 150, the light emission device B 140-2 acquires control data from the operation device 150.
The control data indicating the “light emission B instruction” acquired in the light emitting device B 140-2 is output from the display device 120 and acquired via the audio device 130 and the operation device 150, and from the audio device 130. It is either output and acquired via the operation device 150 or output from the operation device 150. Therefore, the light emission mode in the third light emitting unit 14-3 is the image displayed on the display unit 12, the sound emitted from the sound emitting unit 13, or the operation of the second movable unit 15-2 (details will be described later). It will be synchronized directly with either.

[動作用デバイス150の構成]
図11は、実施形態に係る動作用デバイス150の構成を説明するブロック図である。動作用デバイス150は、取得部151、実行部152、データ記憶部153、処理テーブル154、決定部155、出力部156、出力制御部157およびDA部158を有する。
取得部151は、音声用デバイス130から出力される出力データを取得し、出力データにおける制御データ部分を実行部152、決定部155および出力制御部157に出力する。
実行部152は、入力された制御データの「装置情報」が「動作用デバイス150」を示す場合に、制御データが示す「動作指示」に応じた処理パターンデータをデータ記憶部153から読み出して再生して得られる再生データをDA部158に出力する。
このとき実行部152は、再生データをDA部158に出力するタイミングを示すタイミング情報を出力制御部157に出力する。このタイミング情報は、第2可動部15−2がDA部158によって制御されてから実際に動作するまでの時間的ずれを含むものとしてもよい。すなわち、タイミング情報は、第2可動部15−2が実際に動作を開始するタイミングまたは実際に動作を開始する少し前のタイミングに、出力制御部157に出力されるようにしてもよい。
ここで、タイミング情報の出力を第2可動部15−2の動作に依存させるのは、動作用デバイス150から出力される制御データは、後述するように、第3発光部14−3の発光態様を制御する発光用デバイスB140−2であり、第3発光部14−3と、これに近い第2可動部15−2との同期性を向上させるためである。
[Configuration of the operation device 150]
FIG. 11 is a block diagram illustrating the configuration of the operation device 150 according to the embodiment. The operation device 150 includes an acquisition unit 151, an execution unit 152, a data storage unit 153, a processing table 154, a determination unit 155, an output unit 156, an output control unit 157, and a DA unit 158.
The acquisition unit 151 acquires the output data output from the audio device 130 and outputs the control data portion in the output data to the execution unit 152, the determination unit 155, and the output control unit 157.
When the “device information” of the input control data indicates “operation device 150”, the execution unit 152 reads out the processing pattern data corresponding to the “operation instruction” indicated by the control data from the data storage unit 153 and reproduces it. The reproduction data obtained in this way is output to the DA unit 158.
At this time, the execution unit 152 outputs timing information indicating the timing of outputting the reproduction data to the DA unit 158 to the output control unit 157. This timing information may include a time lag from when the second movable unit 15-2 is controlled by the DA unit 158 until it actually operates. That is, the timing information may be output to the output control unit 157 at the timing when the second movable unit 15-2 actually starts operation or just before the actual operation starts.
Here, the output of the timing information depends on the operation of the second movable unit 15-2. The control data output from the operation device 150 is the light emission mode of the third light emitting unit 14-3 as will be described later. Is a light emitting device B140-2 for controlling the third light emitting unit 14-3 and the synchronism between the third light emitting unit 14-3 and the second movable unit 15-2 close thereto.

データ記憶部153は、第1可動部15−1、第2可動部15−2における動作処理の態様(第1可動部15−1、第2可動部15−2に対して与えるべき電流の変化態様など)を示す処理パターンデータが、制御データが示す「動作指示」の各識別子に対応して複数記憶されている。
DA部158は、実行部152から入力された再生データをデジタルアナログ変換し、変換結果に応じた態様で、第1可動部15−1、第2可動部15−2に対して電流を供給するなどして、それぞれの動作態様を制御する。
The data storage unit 153 is a mode of operation processing in the first movable unit 15-1 and the second movable unit 15-2 (change in current to be applied to the first movable unit 15-1 and the second movable unit 15-2. A plurality of processing pattern data indicating an aspect etc. are stored in correspondence with each identifier of “operation instruction” indicated by the control data.
The DA unit 158 converts the reproduction data input from the execution unit 152 from digital to analog, and supplies current to the first movable unit 15-1 and the second movable unit 15-2 in a manner corresponding to the conversion result. Thus, each operation mode is controlled.

図12は、実施形態に係る動作用デバイス150の処理テーブル154を説明する図である。処理テーブル154は、「動作指示」に係る第2可動部15−2の動作に同期して、第2可動部15−2に近い第3発光部14−3を発光させる発光用デバイスB140−2において処理させるべき内容を規定したテーブルである。
この例においては、「動作指示」に対応して、「発光B指示」および「優先度」が定められている。例えば、「動作指示」が「M3」であれば、この処理に同期して処理させる「発光B指示」は「LB3」、「優先度」は「3」である。なお、「この例においては、全ての「動作指示」について対応する「発光B指示」がある前提としたが、対応するものがない場合があってもよい。「優先度」については、上述したシーケンスデータにおいて定められている優先度と同様である。
FIG. 12 is a diagram illustrating the processing table 154 of the operation device 150 according to the embodiment. The processing table 154 synchronizes with the operation of the second movable unit 15-2 related to the “operation instruction” to emit light from the third light emitting unit 14-3 close to the second movable unit 15-2. Is a table that defines the contents to be processed in.
In this example, “light emission B instruction” and “priority” are defined corresponding to “operation instruction”. For example, if the “operation instruction” is “M3”, the “light emission B instruction” to be processed in synchronization with this process is “LB3”, and the “priority” is “3”. “In this example, it is assumed that there is a corresponding“ light emission B instruction ”for all“ operation instructions ”, but there may be cases where there is no corresponding instruction. The “priority” is the same as the priority defined in the sequence data described above.

決定部155は、制御データが入力されると、その制御データの「装置情報」が「動作用デバイス150」を示す場合には、処理テーブル154を参照して、その制御データの「処理情報」が示す「動作指示」に対応する「発光B指示」および「優先度」を決定する。そして、実行部152からタイミング情報を取得すると、「発光用デバイスB140−2」を識別する「装置情報」と、決定した「発光B指示」を示す「処理情報」と、「優先度」を示す「優先度情報」とを対応付けて、出力制御部157に対して出力する。
決定部155が各種情報を出力するときは、上述のようにしてタイミング情報に応じて出力されるから、実行部152における処理が実行中であることを意味する。
When the control data is input, the determining unit 155 refers to the processing table 154 when the “device information” of the control data indicates “the device for operation 150”, and the “processing information” of the control data. The “light emission B instruction” and the “priority” corresponding to the “operation instruction” indicated by are determined. When the timing information is acquired from the execution unit 152, “device information” for identifying “light emitting device B 140-2”, “processing information” indicating the determined “light emission B instruction”, and “priority” are indicated. The information is output to the output control unit 157 in association with “priority information”.
When the determining unit 155 outputs various types of information, it is output according to the timing information as described above, which means that the processing in the execution unit 152 is being executed.

出力制御部157は、決定部155において対応付けられて出力された各種情報が入力されると、これらを出力部156に出力する。決定部155から各種情報が入力されるときに、取得部151から制御データが入力されると、この制御データの「装置情報」が「動作用デバイス150」以外を示す場合には、この制御データに係る各種情報と、決定部155から入力された各種情報とのいずれかを選択して出力部156に出力する。いずれかを選択するかは、双方の優先度情報が示す優先度を比較することによって行われ、この例においては、優先度が高い方を選択する。なお、優先度が同じ場合には、予め決められたアルゴリズム(例えば、決定部155の出力優先など)にしたがって選択すればよい。
このとき、選択されなかった方の各種情報の取り扱いについては、上述した出力制御部137における場合と同様である。
When various types of information output in association with each other by the determination unit 155 are input, the output control unit 157 outputs these to the output unit 156. When control data is input from the acquisition unit 151 when various types of information are input from the determination unit 155, if the “device information” of the control data indicates other than “operation device 150”, the control data Is selected from the various types of information and various types of information input from the determination unit 155, and is output to the output unit 156. Which one is selected is determined by comparing the priorities indicated by both priority information. In this example, the higher priority is selected. When the priorities are the same, selection may be made according to a predetermined algorithm (for example, output priority of the determination unit 155).
At this time, the handling of various types of information that has not been selected is the same as in the output control unit 137 described above.

出力部156は、出力制御部157から対応付けられて出力された各種情報が入力されると、各種情報を制御データとして出力する。この制御データを出力するときには、上述した出力データと同様な出力形式で出力されるようにしてもよいし、別のものであってもよい。   When various information output in association with the output control unit 157 is input, the output unit 156 outputs the various information as control data. When this control data is output, it may be output in the same output format as the output data described above, or may be different.

[動作例]
図13は、第3発光部14−3における同期の態様を説明する図である。ここでは、発光用デバイスB140−2において、音声用デバイス130に係る制御データを用いて放音部13の音声に同期させた場合と動作用デバイス150に係る制御データを用いて第2可動部15−2の動作に同期させた場合との比較について説明する。横軸は時刻(フレーム)を示している。
[Example of operation]
FIG. 13 is a diagram illustrating a synchronization mode in the third light emitting unit 14-3. Here, in the light emitting device B 140-2, when the control data related to the sound device 130 is used to synchronize with the sound of the sound emitting unit 13 and the control data related to the operation device 150 is used, the second movable unit 15. Comparison with the case of synchronizing with the operation of -2. The horizontal axis indicates time (frame).

放音部13から放音される音声は、音声Psで表した部分である(図13「放音部」参照)。音声用デバイス130は、音声Psを放音させる期間、すなわち、オーディオデータを出力する実行部132における処理の実行中に、第3発光部14−3を発光させる制御データを有する出力データを出力し、その制御データを発光用デバイスB140−2に取得させる。
これにより、第3発光部14−3は、発光態様Paで発光するように制御される(図13「第3発光部(音声同期部分)」参照)。ここで、発光用デバイスB140−2が制御データを取得してから第3発光部14−3を発光させるまでの処理時間の関係から、第3発光部14−3における発光は、音声Psから一定時間Ta遅れて行われる。
The sound emitted from the sound emitting unit 13 is a portion represented by the sound Ps (see “sound emitting unit” in FIG. 13). The audio device 130 outputs output data having control data for causing the third light emitting unit 14-3 to emit light during the period in which the sound Ps is emitted, that is, during the execution of the processing in the execution unit 132 that outputs audio data. The control data is acquired by the light emitting device B140-2.
Thereby, the 3rd light emission part 14-3 is controlled so that it may light-emit with the light emission aspect Pa (refer FIG. 13 "3rd light emission part (audio | voice synchronization part)"). Here, from the relationship of the processing time from when the light emitting device B 140-2 acquires the control data until the third light emitting unit 14-3 emits light, the light emission in the third light emitting unit 14-3 is constant from the sound Ps. It is performed after a time Ta.

また、音声用デバイス130は、実行部132における処理の実行中の時刻t1、t2において、第2可動部15−2を動作させる制御データを有する出力データを出力し、動作用デバイス150に取得させる。これにより、第2可動部15−2は、動作態様Pm1、Pm2で動作する。動作用デバイス150が出力データを取得してから第2可動部15−2を動作させるまでには、アクチュエータの動作という性質上、処理時間が長くなるため、動作態様Pm1、Pm2の動作開始タイミングは、時刻t1、t2から一定時間Tm(ここではTm>Ta)遅れたものとなる。   In addition, the audio device 130 outputs output data including control data for operating the second movable unit 15-2 at times t1 and t2 during execution of processing in the execution unit 132, and causes the operation device 150 to acquire the output data. . Thereby, the 2nd movable part 15-2 operate | moves by operation | movement aspect Pm1, Pm2. Since the processing time becomes longer due to the nature of the operation of the actuator from when the operation device 150 acquires the output data until the second movable unit 15-2 is operated, the operation start timing of the operation modes Pm1 and Pm2 is , The time t1, t2 is delayed by a certain time Tm (here, Tm> Ta).

動作用デバイス150は、実行部152における処理の実行中に、第2可動部15−2における動作態様Pm1、Pm2に応じて、第3発光部14−3を発光させる制御データを出力し、発光用デバイスB140−2に取得させる。この第3発光部14−3を発光させる指示(発光B指示)は、音声用デバイス130に係る指示よりも優先度が高いものとする。したがって、動作用デバイス150は、動作態様Pm1、Pm2に応じた制御データを出力する期間は、音声用デバイス130から入力される第3発光部14−3に係る指示を示す制御データ(「装置情報」が「発光用デバイスB140−2」である制御データ)については破棄して出力しない。
これにより、第3発光部14−3は、発光態様Paで発光している状態であっても、第2可動部15−2が動作したときには、その動作態様Pm1、Pm2に同期した発光を行う。すなわち、第2可動部15−2が動作すると、音声Pcに同期した発光態様Paに優先して、動作態様Pm1、Pm2に同期した発光態様Pb1、Pb2で発光するように制御される(図13「第3発光部(動作同期部分追加)」参照)。動作態様Pm1の動作開始タイミングと、発光態様Pb1の発光開始タイミングとの時間間隔は、概ね一定時間Taだけである。
The operation device 150 outputs control data for causing the third light emitting unit 14-3 to emit light in accordance with the operation modes Pm1 and Pm2 in the second movable unit 15-2 during execution of the processing in the execution unit 152, and emits light. Device B140-2. It is assumed that the instruction (light emission B instruction) for causing the third light emitting unit 14-3 to emit light has a higher priority than the instruction related to the audio device 130. Therefore, the operation device 150 outputs the control data (“apparatus information” indicating an instruction related to the third light emitting unit 14-3 input from the audio device 130 during the period of outputting the control data corresponding to the operation modes Pm1 and Pm2. "Control data with" light emitting device B140-2 ") is discarded and not output.
Thereby, even if the 3rd light emission part 14-3 is the state currently light-emitted by light emission mode Pa, when the 2nd movable part 15-2 operate | moves, it will light-emit in synchronization with the operation mode Pm1 and Pm2. . That is, when the second movable portion 15-2 is operated, control is performed so that light is emitted in the light emission modes Pb1 and Pb2 synchronized with the operation modes Pm1 and Pm2 in preference to the light emission mode Pa synchronized with the sound Pc (FIG. 13). (Refer to “third light emitting unit (addition of operation synchronization part)”). The time interval between the operation start timing of the operation mode Pm1 and the light emission start timing of the light emission mode Pb1 is substantially only a fixed time Ta.

一方、動作態様Pm1、Pm2に応じて第3発光部14−3を発光させる制御データを、動作用デバイス150から出力されたものではなく、直接、音声用デバイス130から出力させた場合を想定すると、音声用デバイス130は、時刻t1(t2)において、その発光指示を示す制御データを有する出力データを出力する。これにより、第3発光部14−3は、音声に直接同期して発光態様Pcで発光し、動作態様Pm1、Pm2に同期して、発光態様Pc1、Pc2で発光するように制御される(図13「第3発光部(音声同期のみ)」参照)。
このようにして、音声に対し、第2可動部15−2の動作および第3発光部14−3の発光のそれぞれを同期させることで、第2可動部15−2の動作(Pm1、Pm2)と第3発光部14−3の発光(Pc1、Pc2)とにおいても間接的に同期が行われるが、第2可動部15−2における動作開始タイミングと、第3発光部14−3における発光開始タイミングとのずれが大きくなり、同期性は低下する。
On the other hand, it is assumed that control data for causing the third light emitting unit 14-3 to emit light according to the operation modes Pm1 and Pm2 is not output from the operation device 150 but directly from the audio device 130. The audio device 130 outputs output data having control data indicating the light emission instruction at time t1 (t2). Thus, the third light emitting unit 14-3 is controlled to emit light in the light emission mode Pc in direct synchronization with the sound, and to emit light in the light emission modes Pc1 and Pc2 in synchronization with the operation modes Pm1 and Pm2. 13 “Refer to“ third light emitting unit (sound synchronization only) ”).
In this manner, the operation of the second movable unit 15-2 (Pm1, Pm2) is synchronized with the sound by synchronizing the operation of the second movable unit 15-2 and the light emission of the third light emitting unit 14-3. And the light emission (Pc1, Pc2) of the third light emitting unit 14-3 are also indirectly synchronized, but the operation start timing in the second movable unit 15-2 and the light emission start in the third light emitting unit 14-3 Deviation from timing increases and synchronicity decreases.

したがって、第2可動部15−2の動作に対して、第3発光部14−3の発光を連動させ同期性を向上させたいときには、上述のように、第2可動部15−2を動作させる処理の実行中において、動作用デバイス150は、決定部155が決定した第3発光部14−3の発光態様を示す制御データを優先して出力するようにすれば、第2可動部15−2における動作開始タイミングと、第3発光部14−3における発光開始タイミングとのずれを小さくすることができる。一方、第2可動部15−2を動作させる処理が実行されていない期間には、動作用デバイス150は、音声用デバイス130に係る制御データを優先して出力するため、第3発光部14−3は、音声との同期性が向上することになる。
なお、第2可動部15−2を動作させる処理が実行中であっても、第3発光部14−3における発光態様を音声に同期させることで演出効果が大きい場合には、音声用デバイス130に係る制御データの優先度が高くなるようにすればよい。すなわち、音声用デバイス130における処理テーブル134に係るシーケンスデータにおいて、演出効果が大きくなる「発光B指示」に対応する「優先度」が大きくなるように定めておけばよい。これにより、動作用デバイス150は、音声用デバイス130に係る制御データを選択して出力することになり、第3発光部14−3の発光態様と音声との同期性を向上させることができる。
Therefore, when it is desired to improve the synchronization by interlocking the light emission of the third light emitting unit 14-3 with the operation of the second movable unit 15-2, the second movable unit 15-2 is operated as described above. If the operation device 150 preferentially outputs the control data indicating the light emission mode of the third light emitting unit 14-3 determined by the determining unit 155 during the execution of the process, the second movable unit 15-2 is provided. The difference between the operation start timing at and the light emission start timing at the third light emitting unit 14-3 can be reduced. On the other hand, during the period when the process for operating the second movable unit 15-2 is not executed, the operation device 150 preferentially outputs the control data related to the audio device 130, and thus the third light emitting unit 14- 3 is improved in synchronism with voice.
Note that, even when the process of operating the second movable unit 15-2 is being executed, the audio device 130 is effective in the case where the production effect is great by synchronizing the light emission mode of the third light emitting unit 14-3 with the sound. What is necessary is just to make it the priority of the control data concerning to become high. In other words, in the sequence data related to the processing table 134 in the audio device 130, the “priority” corresponding to the “light emission B instruction” that increases the effect can be determined. Accordingly, the operation device 150 selects and outputs the control data related to the audio device 130, and can improve the synchronization between the light emission mode of the third light emitting unit 14-3 and the audio.

このように、本発明の実施形態に係る同期制御装置を有する遊技機1は、演出を行う際の各部への処理の指示を行うときに、各構成の処理の同期を一括して行うのではなく、分散して行う。これにより、特定の組み合わせの構成間で直接同期を取ることができるため、特定の構成間における処理の同期性を向上させることができる。また、直接同期を取る構成の組み合わせを、処理内容に対応して定められた優先度に応じて変更することもできる。このように、遊技機1は、各構成の処理を行うときに、演出内容に応じて特定の組み合わせの構成間における処理の同期性を向上させることができる。   As described above, the gaming machine 1 having the synchronization control device according to the embodiment of the present invention does not collectively synchronize the processing of each component when instructing the processing to each unit when performing the presentation. Not distributed. Thereby, since it can synchronize directly between the structure of a specific combination, the synchronism of the process between specific structures can be improved. In addition, the combination of configurations that directly synchronize can be changed according to the priority determined in accordance with the processing content. Thus, the gaming machine 1 can improve the synchronism of the processing between the specific combinations of the configurations according to the contents of the presentation when performing the processing of each configuration.

<変形例>
以上、本発明の実施形態について説明したが、本発明は以下のように、さまざまな態様で実施可能である。
[変形例1]
上述した実施形態において、遊技機1は、パチンコ遊技機を例として説明したが、これに限られるものではなく、ピンボールなどのゲーム台であってもよいし、パチスロ機などの球を用いない回胴式遊技機であってもよい。すなわち、映像を表示する表示部、音声を放音する放音部の他に、これらと同期すべき発光部、可動部などを有する装置であればどのようなものであってもよく、音声用デバイス130、動作用デバイス150などの同期制御装置に相当する構成を有する装置であればよい。
<Modification>
As mentioned above, although embodiment of this invention was described, this invention can be implemented in various aspects as follows.
[Modification 1]
In the embodiment described above, the gaming machine 1 has been described by taking a pachinko gaming machine as an example. However, the gaming machine 1 is not limited to this, and may be a game table such as a pinball, or may not use a ball such as a pachislot machine. A spinning machine may be used. In other words, in addition to a display unit that displays video and a sound emitting unit that emits sound, any device may be used as long as it has a light emitting unit and a movable unit that should be synchronized with these devices. Any device having a configuration corresponding to a synchronization control device such as the device 130 and the operation device 150 may be used.

[変形例2]
上述した実施形態において、出力制御部157は、出力部156に出力する各種情報について、取得部151から入力される制御データに係る各種情報と、決定部155から入力された各種情報とのいずれかを選択するにあたり、双方の優先度を比較することによって行っていたが、優先度によらず、予め決められたいずれか一方を優先して選択するようにしてもよい。例えば、決定部155から入力された各種情報がある場合には、これを必ず選択するようにしてもよい。なお、出力制御部137についても同様である。
[Modification 2]
In the above-described embodiment, the output control unit 157 is one of various information related to control data input from the acquisition unit 151 and various information input from the determination unit 155 for various information output to the output unit 156. Is selected by comparing the priorities of the two, but it is also possible to preferentially select one of the predetermined ones regardless of the priorities. For example, when there is various information input from the determination unit 155, it may be selected without fail. The same applies to the output control unit 137.

[変形例3]
上述した実施形態においては、制御データが示す処理情報は、各構成において同期させるべき処理の内容を指示するものであったが、その他の処理についても含まれるようにしてもよい。その他の処理とは、例えば、電源を投入した直後など、各構成にリセット処理を行わせる指示である。このような指示は、全てに優先して行われるべきものであるから、優先度は最大のものとして扱ってもよい。
[Modification 3]
In the above-described embodiment, the processing information indicated by the control data indicates the content of the processing to be synchronized in each configuration, but other processing may be included. The other process is an instruction for causing each component to perform a reset process, for example, immediately after the power is turned on. Since such an instruction should be given priority over all, the priority may be treated as the maximum.

1…遊技機、11…入賞口センサ、12…表示部、13…放音部、14−1…第1発光部、14−2…第2発光部、14−3…第3発光部、15−1…第1可動部、15−2…第2可動部、16…操作部、110…主制御部、120…表示用デバイス、130…音声用デバイス、140−1…発光用デバイスA、140−2発光用デバイスB、150…動作用デバイス、200…音響処理部、121…指示取得部、131,141,151…取得部、122,132,142,152…実行部、123,133,143,153…データ記憶部、124,134,154…処理テーブル、125,135,155…決定部、126,136,156…出力部、137,157…出力制御部、148,158…DA部 DESCRIPTION OF SYMBOLS 1 ... Game machine, 11 ... Winning mouth sensor, 12 ... Display part, 13 ... Sound emission part, 14-1 ... 1st light emission part, 14-2 ... 2nd light emission part, 14-3 ... 3rd light emission part, 15 DESCRIPTION OF SYMBOLS -1 ... 1st movable part, 15-2 ... 2nd movable part, 16 ... Operation part, 110 ... Main control part, 120 ... Display device, 130 ... Audio device, 140-1 ... Light emitting device A, 140 -2 light emitting device B, 150 ... operation device, 200 ... acoustic processing unit, 121 ... instruction acquisition unit, 131,141,151 ... acquisition unit, 122,132,142,152 ... execution unit, 123,133,143 , 153 ... data storage unit, 124, 134, 154 ... processing table, 125, 135, 155 ... determination unit, 126, 136, 156 ... output unit, 137, 157 ... output control unit, 148, 158 ... DA unit

Claims (5)

第1の装置において実行される処理に応じて当該第1の装置から出力される第1の制御データであって、当該処理に同期して前記第1の装置および自装置以外の他の装置と自装置との各々において実行するべき処理内容を示す処理情報と当該処理内容を実行するべき装置を示す装置情報とを有する第1の制御データを取得する取得手段と、
前記取得手段によって取得された第1の制御データについて、前記装置情報が自装置を示す処理情報に応じた処理を実行する実行手段と、
前記実行手段による前記処理に同期して前記他の装置において実行するべき処理内容を決定する決定手段と、
前記他の装置において実行するべき処理内容を示す処理情報と、当該他の装置を示す装置情報とを有する第2の制御データを出力する出力手段と、
前記出力手段によって出力される第2の制御データの内容を制御する出力制御手段と
を具備し、
前記出力制御手段は、
前記取得手段により取得された前記装置情報が前記他の装置を示す処理情報、または前記決定手段によって決定された処理内容を示す処理情報のいずれかを選択し、選択した処理情報と、当該処理情報が示す処理を実行するべき他の装置を示す装置情報とを有する第2の制御データを前記出力手段から出力させる
ことを特徴とする同期制御装置。
A first control data outputted from the first device in response to processing performed in the first apparatus, and the apparatus other than in synchronization with the processing of the first device and the own device and processing information representing the processing contents to be executed in each of the own device, acquiring means for acquiring the first control data and a device information indicating the device to executes the process contents,
The first control data obtained by the obtaining unit, an execution unit for executing a process of the device information corresponding to the processing information, representing its own device,
Determining means for determining the processing content to be executed at the other device in synchronism with the processing by the execution means,
And processing information representing the processing contents to be executed in the other device, and output means for outputting a second control data and a device information indicating the other devices,
Output control means for controlling the content of the second control data output by the output means,
The output control means includes
The device information acquired by the acquisition unit selects either processing information indicating the other device or processing information indicating the processing content determined by the determining unit , the selected processing information, and the processing information A second control data having device information indicating another device that is to execute the process indicated by is output from the output means.
前記第1の装置から出力される第1の制御データは、前記処理情報が示す処理内容の優先度を示す優先度情報を有し、
前記出力制御手段は、前記取得手段によって取得された第1の制御データに係る処理内容の優先度と、前記決定手段によって決定された処理内容に対応して決められる優先度とを比較し、比較結果に応じて前記処理情報の選択を行う
ことを特徴とする請求項1に記載の同期制御装置。
The first control data output from the first device has priority information indicating the priority of the processing content indicated by the processing information,
The output control means compares the priority of the processing content related to the first control data acquired by the acquisition means with the priority determined corresponding to the processing content determined by the determination means, and compares The synchronization control device according to claim 1, wherein the processing information is selected according to a result.
前記出力制御手段は、
前記決定手段によって決定された処理内容を実行するべき他の装置と、前記第1の制御データに係る装置情報が示す他の装置とが異なる場合には、前記選択した処理情報に係る第2の制御データを出力させた後に、前記選択されていない処理情報と、当該処理情報が示す処理を実行するべき他の装置を示す装置情報とを有する第2の制御データを出力させ、
前記決定手段によって決定された処理内容を実行するべき他の装置と、前記第1の制御データに係る装置情報が示す他の装置とが同じ場合には、前記選択した処理情報に係る第2の制御データのみを出力させる
ことを特徴とする請求項1または請求項2に記載の同期制御装置。
The output control means includes
When another device that should execute the processing content determined by the determining unit is different from another device indicated by the device information related to the first control data, the second device related to the selected processing information After outputting the control data, the second control data including the non-selected processing information and the device information indicating another device that should execute the processing indicated by the processing information is output,
When another device that should execute the processing content determined by the determining means is the same as another device indicated by the device information related to the first control data, the second device related to the selected processing information The synchronous control device according to claim 1, wherein only the control data is output.
前記実行手段によって実行される処理は、オーディオデータを生成するものであり、
前記出力手段は、前記出力する第2の制御データと前記生成したオーディオデータとを時分割で出力し、
前記他の装置には、前記オーディオデータに係る音を増幅して放音手段に放音させる装置が含まれる
ことを特徴とする請求項1乃至請求項3のいずれかに記載の同期制御装置。
The process executed by the execution means is to generate audio data,
The output means outputs the second control data to be output and the generated audio data in a time-sharing manner,
The synchronization control device according to any one of claims 1 to 3, wherein the other device includes a device that amplifies a sound related to the audio data and causes the sound emitting means to emit the sound.
請求項1乃至請求項4のいずれかに記載の同期制御装置と、
利用者の操作を受け付ける操作手段と、
前記操作手段において受け付けられた操作に応じた処理を実行するように前記第1の装置に指示する指示手段と、
前記第1の装置であって、前記指示手段によって指示された処理を実行し、当該処理に応じて前記第1の制御データを出力する第1の処理装置と、
前記他の装置であって、前記出力手段によって出力された第2の制御データに応じた処理を実行する第2の処理装置と
を具備することを特徴とする遊技機。
A synchronous control device according to any one of claims 1 to 4,
An operation means for receiving a user's operation;
Instruction means for instructing the first apparatus to execute processing according to an operation received by the operation means;
A first processing device, which is the first device, executes processing instructed by the instruction means, and outputs the first control data in accordance with the processing;
A gaming machine, comprising: the other processing device, wherein the second processing device executes processing according to the second control data output by the output means.
JP2009249432A 2009-10-29 2009-10-29 Synchronous control device and game machine Expired - Fee Related JP5540650B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009249432A JP5540650B2 (en) 2009-10-29 2009-10-29 Synchronous control device and game machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009249432A JP5540650B2 (en) 2009-10-29 2009-10-29 Synchronous control device and game machine

Publications (2)

Publication Number Publication Date
JP2011092436A JP2011092436A (en) 2011-05-12
JP5540650B2 true JP5540650B2 (en) 2014-07-02

Family

ID=44110079

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009249432A Expired - Fee Related JP5540650B2 (en) 2009-10-29 2009-10-29 Synchronous control device and game machine

Country Status (1)

Country Link
JP (1) JP5540650B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6780991B2 (en) * 2016-09-15 2020-11-04 株式会社三共 Game machine
JP6710487B2 (en) * 2019-06-11 2020-06-17 株式会社ユニバーサルエンターテインメント Amusement machine
JP6710489B2 (en) * 2019-06-11 2020-06-17 株式会社ユニバーサルエンターテインメント Amusement machine
JP6710488B2 (en) * 2019-06-11 2020-06-17 株式会社ユニバーサルエンターテインメント Amusement machine

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3793833B2 (en) * 1995-02-13 2006-07-05 株式会社大一商会 Pachinko machine
JP4012984B2 (en) * 1999-04-16 2007-11-28 株式会社高尾 Bullet ball machine
JP2001129165A (en) * 1999-11-09 2001-05-15 Takao:Kk Game machine
JP2004105339A (en) * 2002-09-17 2004-04-08 Takao:Kk Pinball game machine
JP2004174083A (en) * 2002-11-28 2004-06-24 Sankyo Kk Game machine
JP2005143649A (en) * 2003-11-12 2005-06-09 Sankyo Kk Game machine
JP2006019997A (en) * 2004-06-30 2006-01-19 Toshiba Corp Moving picture data transfer system
JP2008146527A (en) * 2006-12-13 2008-06-26 Hitachi Kokusai Electric Inc Command processing method
JP5273515B2 (en) * 2007-12-28 2013-08-28 株式会社大一商会 Game machine
JP2009199499A (en) * 2008-02-25 2009-09-03 Fujitsu Ltd Resource control program and resource control method

Also Published As

Publication number Publication date
JP2011092436A (en) 2011-05-12

Similar Documents

Publication Publication Date Title
JP5127002B2 (en) Bullet ball machine
JP2005087323A (en) Program, information storage medium and game system
JP5540650B2 (en) Synchronous control device and game machine
US9283475B2 (en) Game system, game apparatus and computer program for game
JP2006006735A (en) Game machine
JP5305264B2 (en) Sound generation apparatus and sound generation program
JP2010057609A (en) Apparatus and program for generating image and sound
US20130005464A1 (en) Game system, control method of controlling computer and computer program used thereof
JP2019111026A (en) Game machine
JP2005143716A (en) Game machine
US8814687B1 (en) Multi-player music game
US20130045783A1 (en) Game system and control method of controlling computer used therefor
US7314993B2 (en) Automatic performance apparatus and automatic performance program
JP5372709B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP4598443B2 (en) Game machine
WO2011030760A1 (en) Music game system capable of text output and computer-readable storage medium storing computer program of same
US9138642B2 (en) Data generation system, date generation method, and a non-transitory storage medium storing a computer program configured to generate sequence data that describes reference timing in a game
US8907194B2 (en) System for computer-assisted interpretation of pre-recorded music
EP2078545A1 (en) Video processing device and program
JP4918010B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JPH11319322A (en) Game device and recording medium recording game processing method and program
JP2019111025A (en) Game machine
US11835943B2 (en) Recording/playback device and recording/playback method
JP2017015957A (en) Musical performance recording device and program
JP6959116B2 (en) Pachinko machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140408

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140421

R150 Certificate of patent or registration of utility model

Ref document number: 5540650

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees