JP4849339B2 - 情報処理装置および方法 - Google Patents

情報処理装置および方法 Download PDF

Info

Publication number
JP4849339B2
JP4849339B2 JP2007094012A JP2007094012A JP4849339B2 JP 4849339 B2 JP4849339 B2 JP 4849339B2 JP 2007094012 A JP2007094012 A JP 2007094012A JP 2007094012 A JP2007094012 A JP 2007094012A JP 4849339 B2 JP4849339 B2 JP 4849339B2
Authority
JP
Japan
Prior art keywords
information
time
data
detected
continuous
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007094012A
Other languages
English (en)
Other versions
JP2008252737A (ja
JP2008252737A5 (ja
Inventor
力 関
象 村越
大輔 根木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007094012A priority Critical patent/JP4849339B2/ja
Priority to US12/075,343 priority patent/US8285051B2/en
Priority to CN2008100879973A priority patent/CN101277441B/zh
Publication of JP2008252737A publication Critical patent/JP2008252737A/ja
Publication of JP2008252737A5 publication Critical patent/JP2008252737A5/ja
Application granted granted Critical
Publication of JP4849339B2 publication Critical patent/JP4849339B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、情報処理装置および方法に関し、特に、安価な構成で迅速に、所望のデータを抽出することができるようにする情報処理装置および方法に関する。
例えば、放送されたデータなど、時系列データからのメタデータの抽出処理においては、入力されたデータから検出される所定の特徴量などの、時間軸上での変化を検出することが重要となる。
すなわち、メタデータを抽出するための検出器が、時間軸上で過去のデータを参照して、現在入力されているデータから検出される所定の特徴量などと比較する必要がある。
図1は、従来のメタデータ抽出装置の構成例を示す図である。
同図において、メタデータ抽出装置10には、例えば、動画像のデータなどの時間的に連続したデータが入力データとして入力される。
検出器11は、入力データから所定の特徴量などを検出して出力データとして出力するが、検出器11が出力するデータは、遅延素子12に蓄積されるようになされている。そして、検出器11は、現在入力されている入力データから得られる所定の特徴量と、遅延素子12に蓄積されている特徴量を比較するなどして所定の条件を満たす動画像の区間などを検出することでメタデータが抽出されるようになされている。
また、表示素子に、画像の全体的な流れを示す複数のスリット状の画像からなる静止画像が表示されると共に、その静止画像を構成する各スリット状の画像にそれぞれ対応させて当該各スリット状の画像に対応する音声データの概要、例えばレベル、種類等が視覚的に表示され、画像および音声の全体的な流れを精度よく認識可能となり、編集作業等を一層効率よく行うことができるようにする技術も提案されている。
特許第3158291号公報
しかしながら、過去のデータを参照して、現在入力されているデータから検出される所定の特徴量などと比較する構成の場合、入力データが、常に時刻が単調に増加する順序で投入されなければならず、処理の並列化は非常に困難となる。
本発明はこのような状況に鑑みてなされたものであり、安価な構成で迅速に、所望のデータを抽出することができるようにするものである。
本発明の一側面は、所定の時間連続して供給される情報から、前記連続した時間の中で予め設定された条件を満たす情報が供給された時刻に関する付随情報を検出する情報処理装置であって、時間的に連続して供給された前記情報を、所定の時間間隔で複数の時間的に連続する情報に分割する分割手段と、前記分割された複数の時間的に連続する情報の、それぞれの特徴量を時間的に連続して検出する特徴量検出手段と、前記特徴量検出手段により検出された、複数の時間的に連続する前記特徴量を、予め設定された時間だけ蓄積し、蓄積された前記特徴量と、前記特徴量検出手段により新たに検出された前記特徴量に基づいて、複数の時間的に連続する特徴量変化情報を検出する変化情報検出手段と、前記変化情報検出手段により検出された、前記複数の時間的に連続する前記特徴量変化情報を、任意の時間だけ蓄積し、蓄積された前記特徴量変化情報を解析して、前記供給された情報と同じく時間的に連続する前記付随情報を検出する付随情報検出手段とを備え、前記分割手段は、時間的に連続して供給された前記情報を分割するとき、分割された複数の情報において第N番目の情報と、第N+1番目の情報のそれぞれの一部が、前記変化情報検出手段が前記特徴量を蓄積する時間に対応する時間分だけ、重複するように前記情報を分割し、前記特徴量検出手段は、前記分割手段により分割された複数の時間的に連続する情報を、より短い時間間隔でさらに分割して、それぞれの情報の特徴量を時間的に連続して検出する情報処理装置である。
前記時間的に連続する情報は、動画または音声の情報であり、前記動画または音声のメタデータとして前記付随情報を検出するようにすることができる。
本発明の一側面は、所定の時間連続して供給される情報から、前記連続した時間の中で予め設定された条件を満たす情報が供給された時刻に関する付随情報を検出する情報処理装置の情報処理方法であって、時間的に連続して供給された前記情報を、所定の時間間隔で複数の時間的に連続する情報に分割し、前記分割された複数の時間的に連続する情報の、それぞれの特徴量を時間的に連続して検出し、前記特徴量検出手段により検出された、複数の時間的に連続する前記特徴量を、予め設定された時間だけ蓄積し、蓄積された前記特徴量と、前記特徴量検出手段により新たに検出された前記特徴量に基づいて、複数の時間的に連続する特徴量変化情報を検出し、前記検出された、前記複数の時間的に連続する前記特徴量変化情報を、任意の時間だけ蓄積し、蓄積された前記特徴量変化情報を解析して、前記供給された情報と同じく時間的に連続する前記付随情報を検出するステップを含み、時間的に連続して供給された前記情報を分割するとき、分割された複数の情報において第N番目の情報と、第N+1番目の情報のそれぞれの一部が、前記特徴量を蓄積する時間に対応する時間分だけ、重複するように前記情報が分割され、前記分割された複数の時間的に連続する情報を、より短い時間間隔でさらに分割して、それぞれの情報の特徴量が時間的に連続して検出される情報処理方法である。
本発明の一側面においては、時間的に連続して供給された前記情報が、所定の時間間隔で複数の時間的に連続する情報に分割され、前記分割された複数の時間的に連続する情報の、それぞれの特徴量が時間的に連続して検出され、前記検出された、複数の時間的に連続する前記特徴量が、予め設定された時間だけそれぞれ蓄積され、蓄積された前記特徴量と、新たに検出された前記特徴量に基づいて、複数の時間的に連続する特徴量変化情報がそれぞれ検出され、前記検出された、前記複数の時間的に連続する前記特徴量変化情報を、任意の時間だけ蓄積し、蓄積された前記特徴量変化情報を解析して、前記供給された情報と同じく時間的に連続する前記付随情報が検出される。また、時間的に連続して供給された前記情報を分割するとき、分割された複数の情報において第N番目の情報と、第N+1番目の情報のそれぞれの一部が、前記特徴量を蓄積する時間に対応する時間分だけ、重複するように前記情報が分割され、前記分割された複数の時間的に連続する情報を、より短い時間間隔でさらに分割して、それぞれの情報の特徴量が時間的に連続して検出される。
本発明によれば、安価な構成で迅速に、所望のデータを抽出することができる。
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書または図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書または図面に記載されていることを確認するためのものである。従って、明細書または図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
本発明の一側面の情報処理装置は、所定の時間連続して供給される情報から、前記連続した時間の中で予め設定された条件を満たす情報が供給された時刻に関する付随情報(例えば、メタデータ)を検出する情報処理装置であって、時間的に連続して供給された前記情報を、所定の時間間隔で複数の時間的に連続する情報に分割する分割手段(例えば、図5のデマルチプレクサ)と、前記分割された複数の時間的に連続する情報の、それぞれの特徴量を時間的に連続して検出する特徴量検出手段(例えば、図2のベースレベル検出部60)と、前記特徴量検出手段により検出された、複数の時間的に連続する前記特徴量を、予め設定された時間だけ蓄積し、蓄積された前記特徴量と、前記特徴量検出手段により新たに検出された前記特徴量に基づいて、複数の時間的に連続する特徴量変化情報(例えば、中間データ)を検出する変化情報検出手段(例えば、図2のローレベル検出部70)と、前記変化情報検出手段により検出された、前記複数の時間的に連続する前記特徴量変化情報を、任意の時間だけ蓄積し、蓄積された前記特徴量変化情報を解析して、前記供給された情報と同じく時間的に連続する前記付随情報を検出する付随情報検出手段とを備え、前記分割手段は、時間的に連続して供給された前記情報を分割するとき、分割された複数の情報において第N番目の情報と、第N+1番目の情報のそれぞれの一部が、前記変化情報検出手段が前記特徴量を蓄積する時間に対応する時間分だけ、重複するように前記情報を分割し、前記特徴量検出手段は、前記分割手段により分割された複数の時間的に連続する情報を、より短い時間間隔でさらに分割して、それぞれの情報の特徴量を時間的に連続して検出する。
本発明の第1の側面の情報処理方法は、所定の時間連続して供給される情報から、前記連続した時間の中で予め設定された条件を満たす情報が供給された時刻に関する付随情報(例えば、メタデータ)を検出する情報処理装置の情報処理方法であって、時間的に連続して供給された前記情報を、所定の時間間隔で複数の時間的に連続する情報に分割し(例えば、図8のステップS10の処理)、前記分割された複数の時間的に連続する情報の、それぞれの特徴量を時間的に連続して検出し(例えば、図8のステップS11の処理)、前記特徴量検出手段により検出された、複数の時間的に連続する前記特徴量を、予め設定された時間だけ蓄積し、蓄積された前記特徴量と、前記特徴量検出手段により新たに検出された前記特徴量に基づいて、複数の時間的に連続する特徴量変化情報(例えば、中間データ)を検出し(例えば、図8のステップS12の処理)、前記検出された、前記複数の時間的に連続する前記特徴量変化情報を、任意の時間だけ蓄積し、蓄積された前記特徴量変化情報を解析して、前記供給された情報と同じく時間的に連続する前記付随情報を検出するステップを含み、時間的に連続して供給された前記情報を分割するとき、分割された複数の情報において第N番目の情報と、第N+1番目の情報のそれぞれの一部が、前記特徴量を蓄積する時間に対応する時間分だけ、重複するように前記情報が分割され、前記分割された複数の時間的に連続する情報を、より短い時間間隔でさらに分割して、それぞれの情報の特徴量が時間的に連続して検出される。
以下、図面を参照して、本発明の実施の形態について説明する。
図2は、本発明の一実施の形態に係るメタデータ抽出装置の構成例を示すブロック図である。このメタデータ抽出装置40は、入力データとして入力される時間的に連続するデータから、そのデータのメタデータを抽出し、入力データにメタデータが付加されたデータを、出力データとして出力するようになされている。
ここで、入力データは、例えば、動画像、音声などのデータであって、時間的に連続するデータとされ、メタデータは、動画像、音声などのデータの中で予め定められた条件を満たす区間を特定するための情報とされる。入力データは、例えば、動画像と音声により構成されるコンテンツのデータとされ、メタデータは、例えば、そのコンテンツの中のハイライトシーン、CMなどの区間を特定するための情報とされる。メタデータ抽出装置40は、例えば、HDD(Hard Disk Drive)レコーダなどとして構成され、必要に応じてHDDなどに記録されたコンテンツのメタデータを抽出してユーザに提示するようになされている。
図2のメタデータ抽出装置40は、ベースレベル検出部60、ローレベル検出部70、およびハイレベル検出部80により構成されている。
ベースレベル検出部60は、入力データそのものから、特徴量を検出するようになされている。ベースレベル検出部60は、例えば、1フレーム分の画像および音声のデータの入力を受け付けて、1フレーム分の画像の輝度のヒストグラムを表す情報、1フレーム分の画像のコントラストを表す情報、または音声のレベルを表す情報などの特徴量を検出するようになされており、検出された特徴量と、入力データのフレーム位置(時刻)を対応付けたデータを、ベースレベル出力データとしてローレベル検出部70に出力するようになされている。
ベースレベル検出部60は、遅延素子などのバッファを持たない構成とされ、例えば、第1番目のフレームの画像および音声のデータが入力されたとき、第1番目のフレームの画像および音声のデータの特徴量を検出してベースレベル出力データを出力し、第2番目のフレームの画像および音声のデータが入力されたとき、第2番目のフレームの画像および音声のデータの特徴量を検出してベースレベル出力データを出力するようになされている。
ローレベル検出部70は、ベースレベル検出部60から出力されたベースレベル出力データに基づいて、例えば、コンテンツの中でシーンチェンジが発生したか、所定の時間以上、音声のレベルが予め設定された閾値を越える(または無音)区間があったかなどの情報を中間データとして検出し、検出された中間データと、入力データの区間とを対応付けたデータを、ローレベル出力データとしてハイレベル検出部80に出力するようになされている。
ローレベル検出部70は、例えば5秒分の連続する入力データに対応するベースレベル出力データを蓄積可能な遅延素子などのバッファを有する構成とされ、例えば、バッファに蓄積されたベースレベル出力データと、現在入力されているベースレベル出力データとを比較することで、中間データを検出してローレベル出力データを出力するようになされている。
ハイレベルデータ検出部80は、ローレベル検出部70から出力されたローレベル出力データに基づいて、例えば、コンテンツの中のハイライトシーン、CMなどの区間を特定するための情報をメタデータとして検出し、検出されたメタデータと、入力データの区間とを対応付けたデータを、ハイレベル出力データとして出力するようになされている。すなわち、ハイレベル出力データが、メタデータ抽出装置40の出力データとなる。
ハイレベル検出部80は、例えば、数十分の連続する入力データに対応するローレベル出力データを蓄積可能な遅延素子などのバッファを有する構成とされ、例えば、バッファに蓄積されたローレベル出力データのうちの所定の区間と他の区間とを比較することで、またはバッファに蓄積されたローレベル出力データと、現在入力されているローレベル出力データとを比較することで、メタデータを検出してハイレベル出力データを出力するようになされている。
ハイレベル検出部80のバッファは、ローレベル検出部70のバッファに蓄積されるデータ(ベースレベル出力データ)に対応する入力データの時間と比較して、充分に長い時間の入力データに対応するデータ(ローレベル出力データ)を蓄積可能な構成とされている。
ベースレベル検出部60がバッファを持たない構成であるのに対して、ローレベル検出部70は、有限の遅延区間のバッファを有する構成とされ、ハイレベル検出部80は、いわば無限の遅延区間のバッファを有する構成とされている。勿論、ハイレベル検出部80のバッファも実際には有限の容量であるが、ローレベル検出部70のバッファと比較して充分な時間的長さのデータを蓄積可能なので、いわば無限の遅延区間のバッファと考えることができる。
図3は、ベースレベル検出部60を構成するベースレベル検出器の構成例を示すブロック図である。
同図に示されるベースレベル検出器61は、例えば、入力された1フレーム分の画像および音声のデータから、その1フレーム分の画像の輝度のヒストグラムを表す情報、1フレーム分の画像のコントラストを表す情報、または音声のレベルを表す情報などの特徴量を検出する検出器が並列に接続された構成とされており、同図においては、検出器102−1乃至検出器102−NのN個の検出器が並列に接続されている。
入力データは、スイッチ121により、FIFO101−1乃至FIFO101−Nに順番に供給されるようになされている。例えば、入力データであるコンテンツの第1番目のフレームのデータが、FIFO101−1に入力され、第2番目のフレームのデータが、FIFO101−2に入力され、第3番目のフレームのデータが、FIFO101−3に入力され、・・・第N番目のフレームのデータが、FIFO101−Nに入力されるようになされており、第N+1番目の第1番目のフレームのデータは、再びFIFO101−1に入力されるようになされている。
検出器102−1乃至検出器102−Nは、それぞれFIFO101−1乃至FIFO101−Nから、例えば、1フレーム分の画像および音声のデータを読み出して、その1フレーム分の画像の輝度のヒストグラムを表す情報、1フレーム分の画像のコントラストを表す情報、または音声のレベルを表す情報などの特徴量を検出して、検出された特徴量と、入力データのフレーム位置を対応付けたデータを、それぞれFIFO103−1乃至FIFO103−Nに出力するようになされている。
そして、スイッチ122がFIFO103−1乃至FIFO103−Nから順番にデータを読み出してベースレベル出力データを出力する。すなわち、ベースレベル出力データは、例えば、時間的に連続したNフレーム分の入力データに対応するデータとして出力される。
このようなベースレベル検出器61が複数個並列に接続されてベースレベル検出部60が構成されている。
図4は、ローレベル検出部70を構成するローレベル検出器71の構成例を示すブロック図である。同図に示されるように、ローレベル検出器71は、FIR(Finite Impulse Response )フィルタ型の構成とされる。
同図において、ローレベル検出器71は、図中「D」と四角形の枠で示される遅延素子が複数個直列に接続された有限遅延バッファ202を有する構成とされる。有限遅延バッファ202は、図中左側から、図中右側に向かって、入力されたデータが順番に出力される構成とされており、有限遅延バッファ202の図中右側の遅延素子は、時間的に前のデータが蓄積され、図中左側の遅延素子は、時間的に後のデータが蓄積される。
検出器201は、例えば、有限遅延バッファ202の中の、図中右側に位置する連続した所定の個数の遅延素子に蓄積された、例えば数秒間分(例えば、数十フレーム分)のコンテンツの画像および音声のデータ(入力データ)に対応する時間的に前のベースレベル出力データと、有限遅延バッファ202の中の、図中左側に位置する連続した所定の個数の遅延素子に蓄積された、その数倍の時間的長さ(例えば、数百フレーム分)のコンテンツの画像および音声のデータに対応する時間的に後のベースレベル出力データとを比較して、その比較結果に基づいて、例えば、コンテンツの中で最初の数秒間の区間と次の数秒間の区間との間でシーンチェンジが発生したか、音声のレベルが予め設定された閾値を越えて増大した(または減少した)区間があったかなどの情報を中間データとして検出するようになされている。
そして、検出器201により検出された中間データと、入力データの区間とを対応付けたデータが、ローレベル出力データとして出力される。すなわち、ローレベル出力データは、時間的に連続する入力データにおいて、例えば、所定の時間間隔で順番に抽出された複数の区間のそれぞれにおいて、シーンチェンジが発生したか否か、音声のレベルが予め設定された閾値を越えて増大したか否か、または減少したか否かなどを表すデータであって、やはり入力データと同じく時間的に連続したデータとなる。
このようなローレベル検出器71が複数個並列に接続されてローレベル検出部70が構成されている。
ここで、具体的にどのように、ローレベル検出器71が並列に接続されるかについて説明する。図5は、ローレベル検出部70の構成を説明するためのブロック図である。同図の例では、ローレベル検出部70において、ローレベル検出器71がM個並列に接続されている。
同図において、ベースレベル検出器61−1乃至61−Mは、それぞれ図3を参照して上述したベースレベル検出器61と同様の構成を有し、M個並列に接続されたベースレベル検出器61−1乃至61−Mに対して、デマルチプレクサ50が接続されている。デマルチプレクサ50は、スイッチ51を順番に切り替えることにより、ベースレベル検出器61−1乃至61−Mに対して所定の区間の入力データを供給するようになされている。
デマルチプレクサ50は、時間的に連続する入力データを、例えば、数十秒分の投入単位データに分割し、ベースレベル検出器61−1には、第1番目の投入単位データを供給し、ベースレベル検出器61−2には、第2番目の投入単位データを供給し、ベースレベル検出器61−3には、第3番目の投入単位データを供給し、・・・ベースレベル検出器61−Mには、第M番目の投入単位データを供給する。そして第M+1番目の投入単位データは、再びベースレベル検出器61−1に供給されるようになされている。
ベースレベル検出器61−1乃至61−Mのそれぞれには、図3を参照して上述したように、検出器102−1乃至102−Nが設けられており、1つのベースレベル検出器61から、例えば、時間的に連続するNフレーム分の入力データに対応するベースレベル出力データが出力される。
ローレベル検出器71−1乃至71−Mのそれぞれは、図4を参照して上述したローレベル検出器71と同様の構成を有し、ベースレベル検出器61−1乃至61−Mのそれぞれから出力されるベースレベル出力データに基づいて、上述した中間データを検出し、ローレベル出力データを、FIFO72−1乃至FIFO72−Mに出力する。
そして、スイッチ73がFIFO72−1乃至FIFO72−Mから順番にデータを読み出してローレベル出力データを出力する。すなわち、スイッチ73によりFIFO72−1乃至FIFO72−Mから順番に、それぞれ1回ずつデータが読み出されると、ローレベル出力データは、例えば、時間的に連続したM×数十秒分の入力データに対応するデータとして出力される。
このようにベースレベル検出部60においては、複数のベースレベル検出器61が並列に接続され、ローレベル検出部70においては、複数のローレベル検出器71が並列に接続されるようにすることができる。
また、図3を参照して上述したようにベースレベル検出器61には、それぞれN個の検出器102が設けられているので、このように構成されるメタデータ抽出装置40においては、ベースレベル検出部60において、N×M個の検出器102が並列に接続されていることになり、入力データからの特徴量の検出の処理を、N×M個の検出器102により並列に実行することが可能となる。
なお、デマルチプレクサ50は、例えば、ベースレベル検出部60の一部として構成されるようにしてもよいし、独立して設けられるようにしてもよい。
図6は、図5のデマルチプレクサ50による入力データの供給方式を説明する図である。
同図は、図中横軸が時間とされ、同図の入力データ301は、デマルチプレクサ50に入力される時間的に連続した入力データ(音声および画像のデータ)とされる。デマルチプレクサ50は、入力データ301を、図中に示された時間的長さを有する複数の投入単位データに分割して、複数のベースレベル検出器61に、分割された投入単位データを順番に供給する。ここでは説明を簡単にするため、ベースレベル検出器61A乃至ベースレベル検出器61Dの4台のベースレベル検出器により、ベースレベル検出部60が構成されているものとする。
この例では、投入単位データ321−1は、ベースレベル検出器61Aに供給され、投入単位データ321−2は、ベースレベル検出器61Bに供給され、投入単位データ321−3は、ベースレベル検出器61Cに供給され、投入単位データ321−4は、ベースレベル検出器61Dに供給される。そして、投入単位データ321−11は、ベースレベル検出器61Aに供給され、投入単位データ321−12は、ベースレベル検出器61Bに供給され、投入単位データ321−13は、ベースレベル検出器61Cに供給される。
図5を参照して上述した場合と同様に、ローレベル検出器が並列に接続されている場合、ベースレベル検出器61A乃至ベースレベル検出器61Dから出力されるベースレベル出力データは、それぞれ投入単位の時間分のベースレベル出力データとなって、ローレベル検出器71A乃至ローレベル検出器71Dに供給されることになる。
図4を参照して上述したように、ローレベル検出器71の検出器201は、バッファ202に蓄積された時間的に前のデータ(ベースレベル出力データ)と、時間的に後のデータとを比較して、その比較結果に基づいて、例えば、コンテンツの中で最初の数秒間の区間と次の数秒間の区間との間でシーンチェンジが発生したか、音声のレベルが予め設定された閾値を越えて増大した(または減少した)区間があったかなどの情報を中間データとして検出するようになされている。従って、バッファ202にデータが完全に蓄積されるまでは、中間データの検出ができない。バッファ202にデータが完全に蓄積されるまでの時間が、図中検出遅延として示されている。
すなわち、投入単位データ321−1に対応してベースレベル検出器61Aから出力されたベースレベル出力データは、ローレベル検出器71Aに供給されるが、区間302−1として示される区間のベースレベル出力データは、検出遅延となるため、中間データの検出がなされないことになる。そして、区間302−1に続く区間303−1においてローレベル検出器71Aにより中間データが検出されることになる。
同様に、区間302−2、区間302−3、・・・で示される区間のベースレベル出力データは、検出遅延となるため、中間データの検出がなされず、区間303−2、区間303−3、・・・においてローレベル検出器71B、ローレベル検出器71C、・・・により中間データが検出されることになる。
このため、ローレベル検出部70から、中間データと、入力データの区間とが対応付けられた時間的に連続するデータとしてローレベル出力データを出力させるためには、区間303−1、区間303−2、区間303−3、区間303−4、区間303−11、区間303−12、区間303−13に対応する中間データを連続して検出させて出力させる必要がある。
このため、デマルチプレクサ50は、複数のベースレベル検出器のそれぞれについて供給される投入単位データの一部が重複(オーバーラップ)するように、投入単位データを分割して供給する。
具体的には、入力データ301から生成される投入単位データにおいて、ベースレベル検出器61Aに供給される投入単位データ321−1の図中右側の一部であって、区間302−2と同じ部分がベースレベル検出器61Bにも重複して供給される。投入単位データ321−2の図中右側の一部であって、区間302−3と同じ部分がやはり重複しており、投入単位データ321−3、・・・についても同様である。
このように、デマルチプレクサ50は、入力データ301から投入単位データを生成するとき、例えば、K番目の投入単位データと、K+1番目の投入単位データとが、検出遅延の時間分だけ重複するように、入力データ301を分割して投入単位データを生成する。
このようにすることで、バッファを持たないベースレベル検出部60において並列に処理されて出力されてくるベースレベル検出データを、いわば有限の遅延区間のバッファを有するローレベル検出部70により並列に処理させて、時間的に連続するローレベル検出データを出力させるようにすることができる。
なお、重複する部分の処理に係る付加をできるだけ少なくし、メタデータ抽出装置40全体の処理を効率化させるためには、投入単位データ全体の時間的長さに対して検出遅延の時間的長さが充分短くなるようにローレベル検出部70を設計することが好ましい。
図7は、ハイレベル検出部80を構成するハイレベル検出器81の構成例を示すブロック図である。同図に示されるように、ハイレベル検出器81は、IIR(Infinite Impulse Response) フィルタ型の構成とされる。
同図において、検出器82は、入力された時間的に連続するローレベル出力データを、バッファ83に蓄積し、蓄積されたローレベル出力データの任意の区間を他の区間と比較するなどして、例えば、コンテンツの中のハイライトシーン、CMなどの区間を特定するための情報をメタデータとして検出し、検出されたメタデータと、入力データの区間とを対応付けたデータを、ハイレベル出力データとして出力する。
なお、上述したように、バッファ83は、例えば、数十分間の時間的に連続するローレベル出力データを蓄積可能となるように構成されている。
メタデータの抽出処理においては、例えば、時間的に連続するコンテンツのデータの中で、過去のデータを参照して、現在入力されているデータから検出される所定の特徴量などと比較する必要があるため、入力データが、常に時刻が単調に増加する順序で投入されなければならず、処理の並列化は非常に困難となる。このため、従来のメタデータ抽出処理は、極めて大きい容量のバッファを有する検出器を用いることにより行われていたが、処理に時間がかかるとともに、装置のコストの抑制が困難であった。
これに対して、本発明のメタデータ抽出装置40によれば、入力データが3段階に分けられて解析されてメタデータが抽出されるので、処理を並列化して処理時間を短くすることが可能となる。すなわち、本発明によれば、バッファを必要とせず、入力データそのものから特徴量などを抽出する処理を行うベースレベル検出部60と、有限の遅延区間のバッファを必要とする処理を行うローレベル検出部70の構成を並列化して処理時間を短くすることができる。
また、本発明のメタデータ抽出装置40によれば、入力データが3段階に分けられて解析されてメタデータが抽出されるので、バッファの容量を抑制することが可能となり、装置のコストも抑制することができる。すなわち、ベースレベル検出部60は、バッファを必要とせず、ローレベル検出部70も、有限の遅延区間のバッファのみを必要とする。ハイレベル検出部80は、従来と同様に、いわば無限の遅延区間のバッファを必要とするが、従来とは異なり、バッファに蓄積されるデータのサイズは、極めて小さいものとすることが可能となる。
つまり、従来のメタデータ抽出処理では、入力データそのものを、極めて長い時間分蓄積可能な容量を有するバッファが必要であったのに対して、ハイレベル検出部80のバッファ(バッファ83)は、例えば、入力データの区間を特定する情報が付加された中間データであるローレベル出力データを、極めて長い時間分蓄積可能な容量を有するバッファとすることで足りる。
次に、図8のフローチャートを参照して、メタデータ抽出装置40によるメタデータ抽出処理について説明する。
ステップS10において、デマルチプレクサ50は、入力データを分割する。このとき、図6を参照して上述したように入力データが投入単位データに分割される。
ステップS11において、ベースレベル検出部60は、ステップS10の処理で分割されたそれぞれの入力データ(投入単位データ)について、図9を参照して後述するベースレベル検出処理を実行する。
ここで、図9のフローチャートを参照して、図8のステップS11のベースレベル検出処理の詳細について説明する。
ステップS101において、検出器102−1乃至検出器102−Nのそれぞれは、入力データを解析する。このとき、検出器102−1乃至検出器102−Nは、それぞれFIFO101−1乃至FIFO101−Nから、例えば、1フレーム分の画像および音声のデータを読み出して解析する。
ステップS102において、検出器102−1乃至検出器102−Nのそれぞれは、ステップS101の処理で読み出した1フレーム分の画像の輝度のヒストグラムを表す情報、1フレーム分の画像のコントラストを表す情報、または音声のレベルを表す情報などの特徴量を検出する。
ステップS103において、スイッチ122は、ベースレベル検出データを出力する。ステップS102の処理で、検出された特徴量と、入力データのフレーム位置を対応付けたデータを、FIFO103−1乃至FIFO103−Nから順番にデータを読み出してベースレベル出力データを出力する。これにより、時間的に連続したデータとしてベースレベル出力データが出力される。
なお、ステップS101乃至S103の処理は、並列に接続された複数個のベースレベル検出器61でそれぞれ実行される。すなわち、図6を参照して上述したように入力データが投入単位データに分割されて、各ベースレベル検出器61に供給されて、各ベースレベル検出器61がそれぞれステップS101乃至S103の処理を実行する。
図8に戻って、ステップS11の処理の後、ローレベル検出部70は、ステップS12において、図10を参照して後述するローレベル検出処理を実行する。
ここで、図10のフローチャートを参照して、図8のステップS12のローレベル検出処理の詳細について説明する。
ステップS121において、ローレベル検出器71は、入力データをバッファに蓄積する。なお、ここでいう入力データは、ベースレベル検出部60から出力されたベースレベル出力データであり、有限遅延バッファ202に時間的に連続するベースレベル出力データが蓄積される。
ステップS122において、ローレベル検出器71の検出器201は、中間データを検出可能となるだけベースレベル出力データが蓄積されたか否かを判定し、中間データを検出可能となるだけベースレベル出力データが蓄積されたと判定されるまで待機する。ステップS122において、中間データを検出可能となるだけベースレベル出力データが蓄積されたと判定された場合、処理は、ステップS123に進む。
ステップS123において、検出器201は、蓄積されたデータを解析する。このとき、例えば、バッファ202に蓄積された時間的に前のデータ(ベースレベル出力データ)と、時間的に後のデータとを比較して、その比較結果に基づいて、例えば、コンテンツの中で最初の数秒間の区間と次の数秒間の区間との間でシーンチェンジが発生したか、音声のレベルが予め設定された閾値を越えて増大した(または減少した)区間があったかなどを特定する。
ステップS124において、検出器201は、ステップS123の処理による解析結果に基づいて中間データを検出する。
ステップS125において、検出器201により検出された中間データと、入力データの区間とを対応付けたデータが、ローレベル出力データとして出力される。
なお、ステップS121乃至S125の処理は、並列に接続された複数個のローレベル検出器71でそれぞれ実行される。そして、図5を参照して上述したように、スイッチ73により複数個のローレベル検出器71からのローレベル出力データがそれぞれ入力されたFIFO72−1乃至FIFO72−Mが順番に選択されることで、時間的に連続したローレベル出力データがハイレベル検出部80に出力される。
従って、ローレベル検出部70から出力されてハイレベル検出部80に供給されるローレベル出力データは、デマルチプレクサ50により分割される前の入力データと同じく時間的に連続したデータとなる。
図8に戻って、ステップS12の処理の後、ステップS13において、ハイレベル検出部80は、図11を参照して後述するハイレベル検出処理を実行する。
ここで、図11のフローチャートを参照して、図8のステップS13のハイレベル検出処理の詳細について説明する。
ステップS151において、ハイレベル検出器81は、入力データをバッファ83に蓄積する。なお、ここでいう入力データは、ローレベル検出部70から出力されたローレベル出力データであり、時間的に連続するローレベル出力データが蓄積される。
ステップS152において、検出器82は、メタデータを検出可能となるだけ充分にローレベル出力データが蓄積されたか否かを判定し、メタデータを検出可能となるだけ充分にローレベル出力データが蓄積されたと判定されるまで待機する。ステップS152において、メタデータを検出可能となるだけ充分にローレベル出力データが蓄積されたと判定された場合、処理は、ステップS153に進む。
ステップS153において、検出器82は、蓄積されたデータを解析する。このとき、ローレベル検出部70から出力されたローレベル出力データに基づいて、時間的に連続するローレベル出力データの中のそれぞれの所定の区間において、例えば、コンテンツの中のハイライトシーン、CMなどが特定されるための所定の条件を満たすか否かなどの判定が行われる。
ステップS154において、検出器82は、ステップS153の処理による解析結果に基づいてメタデータを検出する。
ステップS155において、ステップS154の処理で検出されたメタデータと、入力データの区間とを対応付けたデータが、ハイレベル出力データとして出力される。
このようにして、メタデータ抽出装置40によるメタデータ抽出処理が行われる。
以上においては、メタデータ抽出装置40が、ベースレベル検出部60、ローレベル検出部70、およびハイレベル検出部80において、入力データが3段階に分けられて解析されてメタデータが抽出されるように構成される例について説明したが、例えば、図12に示されるように、メタデータ抽出装置40が、ベースレベル検出部60と、ローレベル検出部70のみから構成されるようにしてもよい。
この場合、ローレベル検出部70から出力されるローレベル出力データがメタデータ抽出装置40の出力データとなる。すなわち、例えば、コンテンツの中で最初の数秒間の区間と次の数秒間の区間との間でシーンチェンジが発生したか、音声のレベルが予め設定された閾値を越えて増大した(または減少した)区間があったかなどの情報がメタデータとして用いられることになる。
さらに、例えば、図13に示されるように、メタデータ抽出装置40が、ローレベル検出部70と、ハイレベル検出部80のみから構成されるようにしてもよい。
この場合、入力データは、直接、ローレベル検出部70に入力されることとなる。すなわち、例えば、ローレベル検出器71の検出器201が、入力データの特徴量などを検出し、さらに、検出された特徴量に基づいて中間データを検出することになる。
またこの場合、デマルチプレクサ50は、例えば、ローレベル検出部70の一部として構成されるようにしてもよいし、独立して設けられるようにしてもよい。
あるいはまた、ベースレベル検出部60とハイレベル検出部80のみによりメタデータ抽出装置40が構成されるようにすることも可能である。
この場合、ハイレベル検出器81の検出器82は、ベースレベル出力データに基づいて中間データを検出し、さらに、検出された中間データに基づいてメタデータを検出することになる。
あるいはまた、図3と図5を参照して上述した構成を、例えば、外部記憶を持たないハードウェアなど、他の機器に適用することも可能である。さらに、図4と図5を参照して上述した構成を、例えば、記憶容量の制限された組み込み機器等のファームウェアに適用することも可能である。すなわち、本発明は、メタデータの抽出を目的とする装置への適用に限られるものではなく、時間的に連続する情報から、その情報の中の所定の区間、または所定の時刻の情報などに関する付随的な情報を、安価な構成で迅速に抽出または検出する場合などに、広く適用することが可能である。
なお、本明細書において上述した一連の処理を実行するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
従来のメタデータ抽出装置の構成例を示すブロック図である。 本発明の一実施の形態に係るメタデータ抽出装置の構成例を示すブロック図である。 ベースレベル検出器の構成例を示すブロック図である。 ローレベル検出器の構成例を示すブロック図である。 のローレベル検出部の構成を説明するためのブロック図である。 図5のデマルチプレクサによる入力データの供給方式を説明する図である。 ハイレベル検出器の構成例を示すブロック図である。 メタデータ抽出処理の例を説明するフローチャートである。 ベースレベル検出処理の例を説明するフローチャートである。 ローレベル検出処理の例を説明するフローチャートである。 ハイレベル検出処理の例を説明するフローチャートである。 本発明の一実施の形態に係るメタデータ抽出装置の別の構成例を示すブロック図である。 本発明の一実施の形態に係るメタデータ抽出装置のさらに別の構成例を示すブロック図である。
符号の説明
40 メタデータ抽出装置, 50 デマルチプレクサ, 60 ベースレベル検出部, 61 ベースレベル検出器, 70 ローレベル検出部, 71 ローレベル検出器, 80 ハイレベル検出部,81 ハイレベル検出器, 82 検出器, 83 バッファ, 102−1乃至102−N 検出器, 201 検出器, 202 有限遅延バッファ

Claims (3)

  1. 所定の時間連続して供給される情報から、前記連続した時間の中で予め設定された条件を満たす情報が供給された時刻に関する付随情報を検出する情報処理装置であって、
    時間的に連続して供給された前記情報を、所定の時間間隔で複数の時間的に連続する情報に分割する分割手段と、
    前記分割された複数の時間的に連続する情報の、それぞれの特徴量を時間的に連続して検出する特徴量検出手段と、
    前記特徴量検出手段により検出された、複数の時間的に連続する前記特徴量を、予め設定された時間だけ蓄積し、蓄積された前記特徴量と、前記特徴量検出手段により新たに検出された前記特徴量に基づいて、複数の時間的に連続する特徴量変化情報を検出する変化情報検出手段と、
    前記変化情報検出手段により検出された、前記複数の時間的に連続する前記特徴量変化情報を、任意の時間だけ蓄積し、蓄積された前記特徴量変化情報を解析して、前記供給された情報と同じく時間的に連続する前記付随情報を検出する付随情報検出手段とを備え、
    前記分割手段は、
    時間的に連続して供給された前記情報を分割するとき、
    分割された複数の情報において第N番目の情報と、第N+1番目の情報のそれぞれの一部が、前記変化情報検出手段が前記特徴量を蓄積する時間に対応する時間分だけ、重複するように前記情報を分割し、
    前記特徴量検出手段は、
    前記分割手段により分割された複数の時間的に連続する情報を、より短い時間間隔でさらに分割して、それぞれの情報の特徴量を時間的に連続して検出する
    情報処理装置。
  2. 前記時間的に連続する情報は、動画または音声の情報であり、前記動画または音声のメタデータとして前記付随情報を検出する
    請求項1に記載の情報処理装置。
  3. 所定の時間連続して供給される情報から、前記連続した時間の中で予め設定された条件を満たす情報が供給された時刻に関する付随情報を検出する情報処理装置の情報処理方法であって、
    時間的に連続して供給された前記情報を、所定の時間間隔で複数の時間的に連続する情報に分割し、
    前記分割された複数の時間的に連続する情報の、それぞれの特徴量を時間的に連続して検出し、
    前記特徴量検出手段により検出された、複数の時間的に連続する前記特徴量を、予め設定された時間だけ蓄積し、蓄積された前記特徴量と、前記特徴量検出手段により新たに検出された前記特徴量に基づいて、複数の時間的に連続する特徴量変化情報を検出し、
    前記検出された、前記複数の時間的に連続する前記特徴量変化情報を、任意の時間だけ蓄積し、蓄積された前記特徴量変化情報を解析して、前記供給された情報と同じく時間的に連続する前記付随情報を検出するステップを含み、
    時間的に連続して供給された前記情報を分割するとき、
    分割された複数の情報において第N番目の情報と、第N+1番目の情報のそれぞれの一部が、前記特徴量を蓄積する時間に対応する時間分だけ、重複するように前記情報が分割され、
    前記分割された複数の時間的に連続する情報を、より短い時間間隔でさらに分割して、それぞれの情報の特徴量が時間的に連続して検出される
    情報処理方法。
JP2007094012A 2007-03-30 2007-03-30 情報処理装置および方法 Expired - Fee Related JP4849339B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007094012A JP4849339B2 (ja) 2007-03-30 2007-03-30 情報処理装置および方法
US12/075,343 US8285051B2 (en) 2007-03-30 2008-03-11 Information processing apparatus and method for detecting associated information from time-sequential information
CN2008100879973A CN101277441B (zh) 2007-03-30 2008-03-28 信息处理装置和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007094012A JP4849339B2 (ja) 2007-03-30 2007-03-30 情報処理装置および方法

Publications (3)

Publication Number Publication Date
JP2008252737A JP2008252737A (ja) 2008-10-16
JP2008252737A5 JP2008252737A5 (ja) 2010-04-30
JP4849339B2 true JP4849339B2 (ja) 2012-01-11

Family

ID=39887049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007094012A Expired - Fee Related JP4849339B2 (ja) 2007-03-30 2007-03-30 情報処理装置および方法

Country Status (3)

Country Link
US (1) US8285051B2 (ja)
JP (1) JP4849339B2 (ja)
CN (1) CN101277441B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9379895B2 (en) 2008-07-24 2016-06-28 Zscaler, Inc. HTTP authentication and authorization management
JP2013171089A (ja) * 2012-02-17 2013-09-02 Toshiba Corp 音声補正装置、方法、及びプログラム
JP5833509B2 (ja) * 2012-08-15 2015-12-16 日本電信電話株式会社 映像解析装置、映像解析方法及び映像解析プログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5459830A (en) * 1991-07-22 1995-10-17 Sony Corporation Animation data index creation drawn from image data sampling composites
JP3158291B2 (ja) 1991-07-22 2001-04-23 ソニー株式会社 表示装置
KR20010099660A (ko) * 1998-09-29 2001-11-09 매클린토크 샤운 엘 고품위 텔레비전 인코더에서 장면변화의 검출 및화면코딩타입의 조정을 행하기 위한 방법 및 장치
US6404925B1 (en) * 1999-03-11 2002-06-11 Fuji Xerox Co., Ltd. Methods and apparatuses for segmenting an audio-visual recording using image similarity searching and audio speaker recognition
JP4253934B2 (ja) * 1999-07-05 2009-04-15 ソニー株式会社 信号処理装置及び方法
JP5028717B2 (ja) 2001-05-31 2012-09-19 凸版印刷株式会社 半導体装置用多層配線基板の製造方法
JP3785068B2 (ja) * 2001-08-28 2006-06-14 日本電信電話株式会社 映像解析装置,映像解析方法,映像解析プログラムおよびそのプログラム記録媒体
KR20040006065A (ko) * 2002-07-09 2004-01-24 삼성전자주식회사 장면전환검출장치 및 그 방법
US7068722B2 (en) * 2002-09-25 2006-06-27 Lsi Logic Corporation Content adaptive video processor using motion compensation
JP4336813B2 (ja) * 2002-12-06 2009-09-30 日本電気株式会社 画像記述システムおよび方法
GB0229625D0 (en) * 2002-12-19 2003-01-22 British Telecomm Searching images
US6865297B2 (en) * 2003-04-15 2005-03-08 Eastman Kodak Company Method for automatically classifying images into events in a multimedia authoring application
US6879731B2 (en) * 2003-04-29 2005-04-12 Microsoft Corporation System and process for generating high dynamic range video
US7680340B2 (en) * 2003-11-13 2010-03-16 Eastman Kodak Company Method of using temporal context for image classification
JP4177239B2 (ja) * 2003-12-01 2008-11-05 日本電信電話株式会社 映像解析装置,映像解析方法,映像解析プログラムおよびその記録媒体
EP1557837A1 (en) * 2004-01-26 2005-07-27 Sony International (Europe) GmbH Redundancy elimination in a content-adaptive video preview system
US8953908B2 (en) * 2004-06-22 2015-02-10 Digimarc Corporation Metadata management and generation using perceptual features
JP4559935B2 (ja) * 2005-08-25 2010-10-13 株式会社東芝 画像記憶装置及び方法
JP4419933B2 (ja) * 2005-08-26 2010-02-24 ソニー株式会社 画像処理装置、画像表示装置および画像処理方法

Also Published As

Publication number Publication date
US8285051B2 (en) 2012-10-09
US20080267507A1 (en) 2008-10-30
CN101277441B (zh) 2011-04-06
JP2008252737A (ja) 2008-10-16
CN101277441A (zh) 2008-10-01

Similar Documents

Publication Publication Date Title
US8860883B2 (en) Method and apparatus for providing signatures of audio/video signals and for making use thereof
US7796860B2 (en) Method and system for playing back videos at speeds adapted to content
US11024338B2 (en) Device, method, and non-transitory computer readable medium for processing motion image
KR20070118635A (ko) 오디오 및/또는 비주얼 데이터의 서머라이제이션
JP2007180669A5 (ja)
JP2009530741A5 (ja)
JP2009017365A5 (ja)
JP4849339B2 (ja) 情報処理装置および方法
JP4075748B2 (ja) 画像記録装置
CN113347489A (zh) 视频片段检测方法、装置、设备及存储介质
US10645345B2 (en) System and method of video capture and search optimization
JP5962278B2 (ja) 画像処理プログラム、画像処理装置及び画像処理方法
JP3785068B2 (ja) 映像解析装置,映像解析方法,映像解析プログラムおよびそのプログラム記録媒体
JP4840325B2 (ja) 映像音声記録装置
KR101369270B1 (ko) 멀티 채널 분석을 이용한 비디오 스트림 분석 방법
TW201013415A (en) Video recording and playback apparatus
KR101716109B1 (ko) 복수의 영상의 시간 동기화 방법 및 이러한 방법을 사용하는 멀티 영상 재생 시스템
JP2014183493A (ja) 情報補正装置、情報補正方法並びに情報補正用プログラム及び情報記録媒体
JPWO2014196134A1 (ja) 解析処理システム
US20210067788A1 (en) Information processing apparatus, information processing method, and storage medium
CN101847205A (zh) 图像处理装置、图像处理方法和程序
JP5451494B2 (ja) 画像処理装置および画像処理方法
KR100886345B1 (ko) 디지털 비디오 레코더 및 이의 동작 방법 및 이를 이용하는영상관제시스템
KR20060095218A (ko) Dvr 시스템에서의 다 채널 동시 기록 방법
JP2004023236A (ja) 電子透かし検出装置,電子透かし検出方法,電子透かし検出プログラムおよび電子透かし検出プログラムの記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110922

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111005

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141028

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees