JP5711771B2 - ノード離脱処理システム - Google Patents
ノード離脱処理システム Download PDFInfo
- Publication number
- JP5711771B2 JP5711771B2 JP2013014030A JP2013014030A JP5711771B2 JP 5711771 B2 JP5711771 B2 JP 5711771B2 JP 2013014030 A JP2013014030 A JP 2013014030A JP 2013014030 A JP2013014030 A JP 2013014030A JP 5711771 B2 JP5711771 B2 JP 5711771B2
- Authority
- JP
- Japan
- Prior art keywords
- node
- data
- data migration
- processing
- identifier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
従来、分散システムを構成するノードを離脱させる場合においては、システム上に存在するデータ(原本データおよび複製データ)の一貫性を厳密に保証することは現実的に困難であり、データの一貫性が崩れるタイミングを避けることはできないという問題がある。すなわち、ノードの障害発生時と同様に冗長管理された複製データを利用してサービスを継続させることを考えると、ノード離脱後にデータの一貫性が保証できず、処理が失敗するケースが起こる可能性がある。
このようにすることで、ノード離脱処理システムは、クラスタを構成する複数のノードのうちのいずれかを、故障等での離脱ではなくサービス運用者等が保守契機で離脱させる際に、ノード離脱後の適切なデータ配置にデータ(データ移行対象データ)を移行させた後に、離脱対象のノードを離脱させる。よって、クラスタを構成する各ノードおけるデータの一貫性を保証した上で、離脱対象のノードを離脱させることができる。
請求項2に記載の発明は、前記複数のノードそれぞれが、前記データ移行処理部が前記検出したデータ移行対象データを前記特定した所有者ノードおよび複製ノードに移行する、データ移行処理の実行中において、前記クライアントから前記メッセージを受信した場合に、前記メッセージの対象となるデータが前記データ移行対象データか否かを、当該データに付された前記ノード情報を参照して判定し、当該データが前記データ移行対象データであるときに、当該データの前記データ移行処理を実行するメッセージ処理部を、さらに備えることを特徴とする請求項1に記載のノード離脱処理システムとした。
このようにすることで、ノード離脱処理システムの複数のノードそれぞれは、メッセージを受信したことにより、それ以降も利用可能性が高いと予測されるデータについて、そのデータに関するメッセージ処理を実行すると共に、データ移行処理を行い、データの適正な配置を迅速に達成することができる。
まず、本実施形態に係るノード離脱処理システム100を含む分散処理システム1000の全体構成について説明する。
図1は、本実施形態に係るノード離脱処理システム100を含む分散処理システム1000の全体構成を示す図である。
なお、本実施形態においては、少なくもと1つの振り分け装置4とクラスタを構成する複数のノード1とを含む構成を、ノード離脱処理システム100として説明する。
本実施形態に係るノード離脱処理システム100は、そのノード離脱処理システム100を構成する複数のノード1のうちのいずれかを、サービス運用者等が保守契機で離脱させる際に、ノード離脱後の適切なデータ配置に該当データ(後記する「データ移行対象データ」)を移行させた後に、離脱対象のノード1を離脱させる。
具体的には、ノード離脱処理システム100内の振り分け装置4およびノード1が備えるノード識別子管理テーブル400(後記する図4参照)に、そのノード1が離脱対象のノードであるか否かを示すフラグ403を設定する。そして、振り分け装置4は、このフラグ403を参照し、離脱対象として設定されたノード1に対しては、メッセージの振り分けを行わない。また、クラスタを構成する各ノード1は、フラグ403が設定されたノード識別子管理テーブル400を参照して、離脱対象のノード1の離脱後の適切なデータ配置に、該当データ(データ移行対象データ)を移行する処理を実行し、データ移行が終了した後に、離脱対象のノード1を実際に離脱させる。
このようにすることで、本実施形態に係るノード離脱処理システム100は、クラスタを構成する各ノード1おけるデータの一貫性を保証した上で、離脱対象のノード1を離脱させることができる。
次に、本実施形態に係る分散処理システム1000を構成する、ロードバランサ3、振り分け装置4およびノード1について、具体的に説明する。
図2は、本実施形態に係るロードバランサ3の構成例を示す機能ブロック図である。
ロードバランサ3は、クライアント2からのメッセージを各振り分け装置4に振り分ける。また、ロードバランサ3は、各振り分け装置4から受信した情報(データ)をクライアント2に送信する。
また、制御部は、図2に示す、振り分け装置情報管理部31および振り分け部32を含んで構成される。振り分け装置情報管理部31は、記憶部に記憶された振り分け装置4のアドレス情報(IPアドレス等)を管理する。振り分け部32は、単純なラウンドロビン法により振り分け装置情報管理部31で管理している振り分け装置4に対して、クライアントからのメッセージを振り分ける。
図3は、本実施形態に係る振り分け装置4の構成例を示す機能ブロック図である。
振り分け装置4は、受信したメッセージを、例えば、コンシステントハッシュ法等に基づき、各ノード1に振り分ける。また、各ノード1から受信した情報(データ)を、ロードバランサ3に送信する。なお、以下の説明においては、図1に示したように、複数の振り分け装置4を備えるものとするが、本実施形態に係るノード離脱処理システム100は、少なくとも1つの振り分け装置4を備えていればよい。
例えば、図4においては、コンシステントハッシュ法のID空間に基づくデータ識別子が「0」から「56」であるデータについては、同図の第1行目に指すノード(ノード識別子「56」、アドレス「192.168.0.24」であるノード)が「所有者ノード」として担当し、次の第2行目が指すノード(ノード識別子「172」、アドレス「192.168.1.25」)がバディとして担当することを示す。同様に、データ識別子が「56」に1を加えた「57」から「172」であるデータについては、第2行目に指すノードが「所有者ノード」として担当し、次の第3行目が指すノードがバディとして担当することを示す。
このようにして、このノード識別子管理テーブル400に基づき、データとその所有者ノードとバディとが対応付けられる。
なお、このノード識別子401は、ノード識別子管理部41が各ノード1に対して付与することもできるし、他のノード1(後記する「システム保守手段50を備えるノード1A」)や外部装置(例えば、ネットワーク管理装置等)が生成したノード識別子管理テーブル400を受信して格納することも可能である。ただし、ノード離脱処理システム100を構成する各振り分け装置4および各ノード1は、他のノード1(システム保守手段50を備えるノード1A)や外部装置(ネットワーク管理装置等)との間で、ノード1の離脱や追加等の情報を送受信することにより、常に、同一内容のノード識別子管理テーブル400を備えるようにする。
なお、このフラグ403についても、ノード識別子管理部41が各ノード1に対して付与することもできるし、他のノード1(システム保守手段50を備えるノード1A)や外部装置(ネットワーク管理装置等)で生成されたフラグ403が付されたノード識別子管理テーブル400を受信して格納することも可能である。
ただし、振り分け処理部42は、コンシステントハッシュ法に従い振り分け先を決定したノード1が、ノード識別子管理テーブル400のフラグ403が「1」の場合、そのノード1へはメッセージの振り分けを行わない。この場合、振り分け処理部42は、ノード識別子401を昇順に並べた次のノード1のフラグ403を順に確認し、つまり、コンシステントハッシュ法のID空間上での右隣のノード1の状態を確認し、フラグ403が「0」のノード1が見つかった時点で、そのノード1に対してメッセージの振り分けを行う。
このようにすることにより、離脱対象のノード1に向けての、クライアント2からの新たなメッセージの送信を行わないようにすることができる。
次に、本実施形態に係るノード離脱処理システム100を構成するノード1の構成例について、具体的に説明する。
図5は、本実施形態に係るノード1の構成例を示す機能ブロック図である。
ノード1は、図1に示したように、各振り分け装置4と通信可能に接続されると共に、クラスタを構成する自身以外の他のノード1とも通信可能に接続される。そして、クライアント2からのメッセージを受信し、サービスを提供する。また、このノード1は、クラスタを構成するいずれかのノード1を離脱させる際に、そのノード1が備えるデータのうち、移行が必要なデータを抽出して、データ移行処理を実行する。
このノード1は、図5に示すように、制御部10と、入出力部11と、メモリ部12と、記憶部13とを含んで構成される。
なお、ノード識別子管理部101(第1のノード識別子管理部)は、図3の振り分け装置4で説明したノード識別子管理部41(第2のノード識別子管理部)と同様の処理を実行する機能を備えるため、ここでの説明を省略する。
なお、メッセージ処理部102は、離脱対象のノード1に関するデータの移行処理が実行される以前に、そのデータ移行の対象となるデータ(後記する「データ移行対象データ」)に関するメッセージを受信したときには、そのメッセージの処理を実行すると共に、そのデータのデータ移行処理を実行する。
データ移行処理スレッド数とは、データ移行処理を並列で実行できる最大スレッド数である。このデータ移行処理スレッド数に大きな値を設定すると、データ移行処理にかかる時間を短縮することができるが、ノード1の処理負荷は大きくなる。これに対し、データ移行処理スレッド数に小さな値を設定すると、データ移行処理にかかる時間は増加するが、ノード1の処理負荷は小さくなる。
データ移行処理実行間隔とは、各スレッドで、データ移行処理部105がデータ移行対象データの検出処理(図9参照)を実行した結果、データ移行対象データが検出され、データ移行処理部105が、そのデータ移行処理を実行した後に待機する時間を指す。
シミュレーション最大個数とは、各スレッドが前記したシミュレーション(フラグ403に「1」が設定された、つまり、離脱対象のノード1が設定されたノード識別子管理テーブル400(図4参照)に基づく、所有者ノードとバディの特定)を含むデータ移行対象データの検出処理を連続で実行する個数を指す。データ移行処理部105は、データ移行対象データの検出処理を連続で実行した後に、所定の時間待機し、その後、再びシミュレーションを含むデータ移行対象データの検出処理を開始する。
このシミュレーション最大個数を少なく設定する、または、データ移行処理実行間隔を長く設定することで、ノード1は、処理負荷を抑えながら徐々にデータ移行処理を実行することが可能となる。
なお、このデータ移行処理スレッド数、データ移行処理実行間隔、シミュレーション最大個数の各パラメータは、データ移行パラメータ管理部106により、すべて設定されてもよいし、いずれか1つでもよいし、各パラメータを任意に組み合わせて設定されてもよい。
また、このデータ移行パラメータ管理部106により設定されたパラメータにより調整される所定のタイミングでのデータ移行処理の詳細については、図10を参照して後記する。
このようにすることで、データ移行パラメータ管理部106で設定されたパラメータに基づき、所定のタイミングでデータ移行処理部105がデータ移行処理を実行している場合であっても、何らかの理由(例えば、クライアント2から大量のメッセージを受信した場合等)で、ノード1の処理負荷が所定値を超えた場合にデータ移行処理を中断し、ノード1の処理負荷を抑制することができる。
そして、ノード負荷監視部は、ノード1自身の処理負荷(例えば、CPU使用率、メモリ使用率等)を監視し、その処理負荷に対し予め設定された所定値を超えた場合に、データ移行処理部105に処理中断情報を出力することにより、データ移行処理部105によるデータ移行処理を中断させる。
このようにすることで、ノード1は、自身の処理負荷が所定値を超えた場合に、データ移行処理を中断する。よって、ノード1は、自身の処理負荷を直接的に監視し、処理負荷が所定値以上にならないように抑制した上で、データ移行処理を実行することができる。
なお、データ300の各データには、そのデータのデータ識別子、所有者ノードのノード識別子および、バディのノード識別子が含まれる。
次に、本実施形態に係るシステム保守手段50を備えるノード1Aについて説明する。
以下においては、クラスタを構成する複数のノード1の中から選定されたあるノード1(前記した他のノード1)に、システム保守手段50の機能が組み入れられた例として説明する。しかしながら、このシステム保守手段50は、外部装置(例えば、ネットワーク管理装置等)に組み入れられてもよく、ネットワーク内にシステム保守手段50を含む独立した装置(システム保守装置)として設定されてもよい。
なお、クラスタを構成する複数のノード1の中から、このシステム保守手段50を備えるノード1Aを選定する処理は、例えば、ノード識別子管理テーブル400(図4参照)のノード識別子401を昇順に並べた場合の値の小さい順でもよいし、ランダム等でもよい。
次に、本実施形態に係るノード離脱処理システム100を含む分散処理システム1000における、処理の流れについて説明する。
≪ノード離脱処理の全体の流れ≫
図7は、本実施形態に係る分散処理システム1000におけるノード離脱処理の全体の流れを示すフローチャートである。
また、図8は、本実施形態に係る分散処理システム1000のノード離脱処理における、システム内の各装置の状況を説明するための図である。
なお、本実施形態に係る分散処理システム1000においては、トラヒック等が減少し、保守的な観点からノード1を離脱させる場合、振り分け装置4についても同様にリソースに余裕が生じている状況が想定されることから、以下に説明する処理においては、ノード離脱と同時に振り分け装置4も離脱させるものとして説明する。ただし、本発明において、振り分け装置4の離脱は必須の処理ではない。
また、クラスタを構成するノード1のうちの1つがシステム保守手段50を備えるノード1Aであるものとして説明する。
このステップS12の処理により、各振り分け装置4のメッセージの振り分け先から、離脱対象となるノード1が外れ(図8(c)参照)、さらに、各ノード1のデータの複製先からも、離脱対象となるノード1が外れることとなる。
各ノード1は、データ移行開始メッセージを受信すると、データ抽出部104が、そのノード1自身が原本として管理しているデータ(原本データ)を、データ移行処理が必要か否かの判定対象となるデータ(判定対象データ)として抽出し、その抽出したデータのデータ識別子を、抽出データ管理テーブル200に格納する(ステップS13)。
なお、データ移行パラメータ管理部106により設定される所定のタイミングについては、図10において説明する。
なお、図8(e)は、データの移行処理が終了し、離脱対象のノード1がクラスタから離脱された状況を示している。
このようにすることで、ノード1は、メッセージを受信したことにより、それ以降も利用可能性が高いと予測されるデータについては、そのデータに関するメッセージ処理を実行すると共に、データ移行処理を行い、データの適正な配置を迅速に達成することができる。
次に、図7のステップS16において、ノード1のデータ移行処理部105が実行するデータ移行対象データの検出処理について詳細に説明する。
図9は、本実施形態に係るノード1のデータ移行処理部105が行うデータ移行対象データの検出処理の流れを示すフローチャートである。
次に、図10を参照して、データ移行パラメータ管理部106により設定されるパラメータに基づく、データ移行処理の所定のタイミングについて説明する。
図10においては、データ移行パラメータ管理部106に設定されるパラメータの例として、データ移行処理スレッド数、データ移行処理実行間隔、および、シミュレーション最大個数が設定されている例を示す。
また、各スレッドにおいて、データ移行処理部105が、抽出データ管理テーブル200から判定対象データを取得すると(ステップS40)、データ移行対象データの検出処理(図9参照)を実行し(ステップS41)、データ移行対象データが検出された場合には、そのままデータ移行処理を実行する(ステップS42)。
1A システム保守手段を備えるノード
2 クライアント
3 ロードバランサ
4 振り分け装置
10 制御部
11 入出力部
12 メモリ部
13 記憶部
31 振り分け装置情報管理部
32 振り分け部
41 ノード識別子管理部(第2のノード識別子管理部)
42 振り分け処理部
50 システム保守手段
51 ノード離脱制御部
100 ノード離脱処理システム
101 ノード識別子管理部(第1のノード識別子管理部)
102 メッセージ処理部
103 ノード情報付与部
104 データ抽出部
105 データ移行処理部
106 データ移行パラメータ管理部
200 抽出データ管理テーブル
300 データ(サービス対象データ)
400 ノード識別子管理テーブル(ノード識別子管理情報)
1000 分散処理システム
Claims (4)
- 1つ以上の振り分け装置が振り分けたメッセージを受信する複数のノードにより構成されるクラスタと、前記クラスタを構成する複数のノードの中から離脱対象のノードを決定し、前記クラスタから離脱させる制御を行うシステム保守手段とを備えるノード離脱処理システムであって、
前記複数のノードのそれぞれは、クライアントにサービスを提供するためのデータを原本データとして記憶する所有者ノード、または、前記データの複製データを記憶する複製ノードとして機能することにより前記クラスタを構成しており、
前記システム保守手段は、
前記離脱対象のノードを決定して、前記離脱対象のノードに固有な識別子であるノード識別子を含むノード離脱開始メッセージを生成し、
前記決定した離脱対象のノードが離脱したと仮定した場合の新たな前記所有者ノードおよび前記複製ノードに前記データを移行させる処理を要求するデータ移行要求を生成する、 ノード離脱制御部を備え、
前記複数のノードそれぞれは、
前記ノードに固有な識別子であるノード識別子を、前記データと前記所有者ノードおよび前記複製ノードとに対応付ける共に、前記ノード識別子に示されるノードが離脱対象のノードであるか否かを示すフラグを設けたノード識別子管理情報が記憶される記憶部と、
前記原本データを記憶する前記所有者ノードのノード識別子および前記複製データを記憶する前記複製ノードのノード識別子を、前記原本データおよび前記複製データそれぞれに、ノード情報として付与するノード情報付与部と、
前記システム保守手段から、前記ノード離脱開始メッセージを受信した場合に、前記離脱対象のノードのノード識別子に基づき、前記ノード識別子管理情報における前記離脱対象のノードについての前記フラグを設定する第1のノード識別子管理部と、
前記システム保守手段から、前記データ移行要求を受信した場合に、自身が記憶している原本データを、データ移行が必要か否かの判定対象となる判定対象データとして抽出するデータ抽出部と、
前記抽出した判定対象データについて、前記フラグが設定されたノード識別子管理情報に基づき、前記離脱対象のノードが離脱されたものとして、前記所有者ノードおよび前記複製ノードを特定し、前記特定した所有者ノードおよび複製ノードそれぞれのノード識別子が、前記ノード情報と比較して一致しない場合に、当該抽出した判定対象データを、前記データ移行が必要なデータを示すデータ移行対象データとして検出し、前記検出したデータ移行対象データを、前記特定した所有者ノードおよび複製ノードに移行するデータ移行処理部と、を備えること
を特徴とするノード離脱処理システム。 - 前記複数のノードそれぞれは、
前記データ移行処理部が前記検出したデータ移行対象データを前記特定した所有者ノードおよび複製ノードに移行する、データ移行処理の実行中において、前記クライアントから前記メッセージを受信した場合に、前記メッセージの対象となるデータが前記データ移行対象データか否かを、当該データに付された前記ノード情報を参照して判定し、当該データが前記データ移行対象データであるときに、当該データの前記データ移行処理を実行するメッセージ処理部を、さらに備えること
を特徴とする請求項1に記載のノード離脱処理システム。 - 前記ノード離脱処理システムは、さらに前記1つ以上の振り分け装置を備えており、
前記振り分け装置は、
前記ノード識別子管理情報が記憶される記憶部と、
前記システム保守手段から、前記ノード離脱開始メッセージを受信した場合に、前記離脱対象のノードのノード識別子に基づき、前記ノード識別子管理情報における前記離脱対象のノードについての前記フラグを設定する第2のノード識別子管理部と、
前記フラグが設定された前記ノード識別子管理情報に基づき、前記離脱対象のノードが離脱されたものとして、前記メッセージの振り分け先となる前記ノードを決定し、前記クライアントから受信した前記メッセージを前記決定したノードに振り分ける振り分け処理部と、を備えること
を特徴とする請求項1または請求項2に記載のノード離脱処理システム。 - 前記複数のノードそれぞれの前記データ移行処理部は、
前記データ移行による前記ノード自身の処理負荷を抑制するように設定されたパラメータに基づく所定のタイミングのときに、前記データ移行対象データの検出処理を実行し、
前記パラメータは、
前記データ移行を並列で実行できる最大スレッド数を示すデータ移行処理スレッド数、前記データ移行を実行した後の待機時間を示すデータ移行処理実行間隔、前記データ移行対象データの検出処理を連続で実行する個数を示すシミュレーション最大個数、の少なくとも1つであること
を特徴とする請求項1ないし請求項3のいずれか1項に記載のノード離脱処理システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013014030A JP5711771B2 (ja) | 2013-01-29 | 2013-01-29 | ノード離脱処理システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013014030A JP5711771B2 (ja) | 2013-01-29 | 2013-01-29 | ノード離脱処理システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014146151A JP2014146151A (ja) | 2014-08-14 |
JP5711771B2 true JP5711771B2 (ja) | 2015-05-07 |
Family
ID=51426373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013014030A Active JP5711771B2 (ja) | 2013-01-29 | 2013-01-29 | ノード離脱処理システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5711771B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6564349B2 (ja) * | 2016-06-09 | 2019-08-21 | 日本電信電話株式会社 | 保守減設システム、ノードおよび保守減設方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5272927B2 (ja) * | 2009-06-29 | 2013-08-28 | ブラザー工業株式会社 | ノード装置、プログラム及び分散保存方法 |
JP2012221419A (ja) * | 2011-04-13 | 2012-11-12 | Hitachi Ltd | 情報記憶システム及びそのデータ複製方法 |
-
2013
- 2013-01-29 JP JP2013014030A patent/JP5711771B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014146151A (ja) | 2014-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106453564B (zh) | 弹性云分布式海量请求处理的方法、装置及系统 | |
JP5969315B2 (ja) | データ移行処理システムおよびデータ移行処理方法 | |
US20090157776A1 (en) | Repartitioning live data | |
CN107005596A (zh) | 用于在集群重新配置后的工作负载平衡的复制型数据库分配 | |
JP6215481B2 (ja) | クラウド環境におけるitインフラ管理のための方法とその装置 | |
US10652100B2 (en) | Computer system and method for dynamically adapting a software-defined network | |
JP6582445B2 (ja) | シンクライアントシステム、接続管理装置、仮想マシン稼働装置、方法、および、プログラム | |
JP2017037492A (ja) | 分散処理プログラム、分散処理方法および分散処理装置 | |
JP5723309B2 (ja) | サーバおよびプログラム | |
JP5711771B2 (ja) | ノード離脱処理システム | |
JP2016177324A (ja) | 情報処理装置、情報処理システム、情報処理方法、及びプログラム | |
JP5918802B2 (ja) | ノードおよびプログラム | |
JP6063882B2 (ja) | 仮想マシン配置システム及び方法 | |
US20240176762A1 (en) | Geographically dispersed hybrid cloud cluster | |
JP5690296B2 (ja) | 負荷分散プログラムおよび負荷分散装置 | |
JP6714547B2 (ja) | 負荷分散装置、負荷分散方法、および、負荷分散プログラム | |
JP5745445B2 (ja) | 管理装置およびプログラム | |
JP6506156B2 (ja) | ノードおよびグラビテーション抑止方法 | |
JP6093320B2 (ja) | 分散処理システム | |
JP5723330B2 (ja) | 分散処理システムおよび分散処理方法 | |
JP5845298B2 (ja) | ノードおよびプログラム | |
JP5815000B2 (ja) | ノードおよびプログラム | |
KR102377726B1 (ko) | 분산 파일 시스템에서의 파일 복제 제어 장치 및 방법 | |
JP6473425B2 (ja) | ノードおよびデータ配置方法 | |
JP6127005B2 (ja) | クラスタシステムのサーバ装置およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20140502 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20140529 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141216 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150306 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5711771 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |