JP2013250720A - 情報処理装置、プログラム及び情報処理方法 - Google Patents

情報処理装置、プログラム及び情報処理方法 Download PDF

Info

Publication number
JP2013250720A
JP2013250720A JP2012124314A JP2012124314A JP2013250720A JP 2013250720 A JP2013250720 A JP 2013250720A JP 2012124314 A JP2012124314 A JP 2012124314A JP 2012124314 A JP2012124314 A JP 2012124314A JP 2013250720 A JP2013250720 A JP 2013250720A
Authority
JP
Japan
Prior art keywords
content
unit
class
information processing
clusters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012124314A
Other languages
English (en)
Other versions
JP5994974B2 (ja
Inventor
Koichi Kawana
孝一 川名
Noboru Murabayashi
昇 村林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012124314A priority Critical patent/JP5994974B2/ja
Priority to US13/875,527 priority patent/US9854220B2/en
Priority to CN2013101963327A priority patent/CN103455935A/zh
Publication of JP2013250720A publication Critical patent/JP2013250720A/ja
Application granted granted Critical
Publication of JP5994974B2 publication Critical patent/JP5994974B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】ユーザの嗜好に合致する多彩なコンテンツを提示することが可能な情報処理装置、プログラム及び情報処理方法を提供すること。
【解決手段】本技術に係る情報処理装置は、コンテンツ再生部と、コンテンツ部分指定部と、クラスタリング部と、クラス検出部と、共通クラス抽出部と、コンテンツ検索部とを具備する。コンテンツ再生部は、再生コンテンツを再生する。コンテンツ部分指定部は、再生コンテンツに含まれる複数のコンテンツ部分を指定する。クラスタリング部は、複数のコンテンツ部分を複数のクラスタに分類する。クラス検出部は、複数のクラスタのそれぞれに含まれる複数のコンテンツ部分からクラスを検出する。共通クラス抽出部は、クラス検出部によって検出されたクラスのうち、複数のクラスタの間で共通する共通クラスを抽出する。コンテンツ検索部は、共通クラスに該当するコンテンツを検索する。
【選択図】図2

Description

本技術は、再生コンテンツをユーザに提示する情報処理装置、プログラム及び情報処理方法に関する。
録画再生機器やインターネット等の普及により、ユーザが利用可能なコンテンツの量は増加しており、ユーザが自らの嗜好に合致するコンテンツを膨大なコンテンツの中から選択する必要がある。ここで、近年、ユーザが再生あるいは記録等したコンテンツに関連するコンテンツを検索し、ユーザに提示する技術が存在する。
例えば特許文献1には、ユーザの嗜好に合わせてコンテンツを提示するコンテンツ推薦システムが開示されている。当該システムは、再生されたコンテンツから取得される情報に基づいてユーザの嗜好を把握し、ユーザに嗜好に合致するコンテンツをユーザに提示するものである。
WO2010/027034
しかしながら、上記特許文献1に記載のようなシステムでは、推薦されるコンテンツの基準となる情報が再生されたコンテンツから取得されたものであるため、推薦されるコンテンツの幅は特定のジャンル等に限定されたものとなる。
以上のような事情に鑑み、本技術の目的は、ユーザの潜在する嗜好に合致する多彩なコンテンツを提示することが可能な情報処理装置、プログラム及び情報処理方法を提供することにある。
本技術の一形態に係る情報処理装置は、コンテンツ再生部と、コンテンツ部分指定部と、クラスタリング部と、クラス検出部と、共通クラス抽出部と、コンテンツ検索部とを具備する。
上記コンテンツ再生部は、再生コンテンツを再生する。
上記コンテンツ部分指定部は、上記再生コンテンツに含まれる複数のコンテンツ部分を指定する。
上記クラスタリング部は、上記複数のコンテンツ部分を複数のクラスタに分類する。
上記クラス検出部は、上記複数のクラスタのそれぞれに含まれる上記複数のコンテンツ部分からクラスを検出する。
上記共通クラス抽出部は、上記クラス検出部によって検出されたクラスのうち、上記複数のクラスタの間で共通する共通クラスを抽出する。
上記コンテンツ検索部は、上記共通クラスに該当するコンテンツを検索する。
この構成によれば、本情報処理装置は、複数のクラスタに分類されたコンテンツ部分(動画コンテンツのシーン等)から検出されたクラス(概念)のうち、当該複数のクラスタ間で共通するクラスに該当するコンテンツを検索するため、ユーザの嗜好を反映しつつ新たなコンテンツをユーザに提示することが可能である。
上記コンテンツ部分指定部は、ユーザによる指定を受けて上記複数のコンテンツ部分を指定してもよい。
この構成によれば、本情報処理装置は、ユーザによって指定(例えばお気に入りとしての登録)されたコンテンツ部分に基づいて共通クラスを抽出することが可能となる。
上記コンテンツ部分指定部は、上記再生コンテンツから抽出された特徴量に基づいて、上記複数のコンテンツ部分を指定してもよい。
この構成によれば、本情報処理装置は、再生コンテンツの重要シーン(例えば盛り上がりシーン)をコンテンツ部分として指定し、当該コンテンツ部分から共通クラスを抽出することが可能となる。
上記クラス検出部は、記複数のクラスタのそれぞれに含まれる上記複数のコンテンツ部分に対してオントロジー処理を実行し、上記複数のコンテンツ部分からクラスを検出してもよい。
この構成によれば、本情報処理装置は、クラスタに含まれる複数のコンテンツ部分に共通するクラスを幅広く検出することが可能となり、即ち、より多くの共通クラスを抽出することが可能となる。
上記クラスタリング部は、上記複数のコンテンツ部分からそれぞれ検出された特徴量に基づいて、上記複数のコンテンツ部分を上記複数のクラスタに分類してもよい。
この構成によれば、本情報処理装置は、各コンテンツ部分から検出された特徴量とデータベースを照合することにより、各コンテンツ部分に含まれる物体を認識することができ、当該物体に応じてコンテンツ部分をクラスタリングすることが可能である。
上記コンテンツ部分指定部は、上記再生コンテンツから抽出された画像の特徴量に基づいて、上記複数のコンテンツ部分を指定してもよい。
この構成によれば、本情報処理装置は、再生コンテンツから抽出された画像の特徴量、例えば画像の動きベクトルから当該再生コンテンツを撮影したカメラの動きを取得することができ、再生コンテンツの重要シーンをコンテンツ部分として指定することが可能となる。
上記コンテンツ部分指定部は、上記再生コンテンツから抽出された音声の特徴量に基づいて、上記複数のコンテンツ部分を指定してもよい。
この構成によれば、本情報処理装置は、再生コンテンツから抽出された音声の特徴量、例えば音声パワースペクトルから音声の盛り上がりを取得することができ、再生コンテンツの重要シーンをコンテンツ部分として指定することが可能となる。
上記コンテンツ再生部は、上記再生コンテンツの再生に上記共通クラスを反映させてもよい。
この構成によれば、本情報処理装置は、抽出した共通クラスに該当するコンテンツ部分を推奨シーンとしてユーザに提供することができ、これにより例えば、ユーザが推奨シーンのみを再生させることが可能となる。
本技術の一形態に係るプログラムは、コンテンツ再生部と、コンテンツ部分指定部と、クラスタリング部と、クラス検出部と、共通クラス抽出部と、コンテンツ検索部として情報処理装置を機能させる。
上記コンテンツ再生部は、再生コンテンツを再生する。
上記コンテンツ部分指定部は、上記再生コンテンツに含まれる複数のコンテンツ部分を指定する。
上記クラスタリング部は、上記複数のコンテンツ部分を複数のクラスタに分類する。
上記クラス検出部は、上記複数のクラスタのそれぞれに含まれる上記複数のコンテンツ部分からクラスを検出する。
上記共通クラス抽出部は、上記クラス検出部によって検出されたクラスのうち、上記複数のクラスタの間で共通する共通クラスを抽出する。
上記コンテンツ検索部は、上記共通クラスに該当するコンテンツを検索する。
本技術の一形態に係る情報処理方法は、コンテンツ再生部が、再生コンテンツを再生する。
コンテンツ部分指定部が、上記再生コンテンツに含まれる複数のコンテンツ部分を指定する。
クラスタリング部が、上記複数のコンテンツ部分を複数のクラスタに分類する。
クラス検出部が、上記複数のクラスタのそれぞれに含まれる上記複数のコンテンツ部分からクラスを検出する。
共通クラス抽出部が、上記クラス検出部によって検出されたクラスのうち、上記複数のクラスタの間で共通する共通クラスを抽出する。
コンテンツ検索部が、上記共通クラスに該当するコンテンツを検索する。
以上のように、本技術によれば、ユーザの潜在する嗜好に合致する多彩なコンテンツを提示することが可能な情報処理装置、プログラム及び情報処理方法を提供することが可能となる。
本技術の実施形態に係る情報処理装置の構成を示す模式図である。 同情報処理装置の機能的構成を示す模式図である。 同情報処理装置の機能的構成を説明するための模式図である。 同情報処理装置の動作を示すフローチャートである。 同情報処理装置の動作を示す模式図である。 同情報処理装置による重要シーンの検出に係る模式図である。
本技術の実施形態に係る情報処理装置について説明する。図1は、情報処理装置100の構成を示すブロック図である。情報処理装置100は、動画コンテンツの録画、再生が可能な録画再生機器(例えば、HDD(Hard Disc Drive)レコーダー、BD(Blu-ray Disc (登録商標))レコーダー等)であるものとすることができるが、これに限られない。
同図に示すように、情報処理装置100は、ネットワークIF(interface)11、チューナー部12、記録処理部13、情報処理部14、入力IF15、メモリ16、ディスクドライブ17、記録媒体18、再生処理部19、表示処理部20、画像音声特徴抽出部21、システムコントローラ22、データバス23及びコントロールバス24を有する。
ネットワークIF11、チューナー部12、記録処理部13、情報処理部14、入力IF15、メモリ16、ディスクドライブ17、記録媒体18、再生処理部19、表示処理部20、画像音声特徴抽出部21及びシステムコントローラ22はそれぞれ、データバス23及びコントロールバス24に接続されている。ネットワークIF11はネットワーク(インターネット等)Nに接続されており、チューナー部12にはアンテナ25が接続されている。入力IF15には入力機器(リモートコントローラ、キーボード、マウス等)26が接続され、表示処理部20にはディスプレイ27が接続されている。
ネットワークIF11は、ネットワークNとの間で情報を授受する。チューナー部12は、アンテナ25を介して放送波を受信し、映像信号を生成する。記録処理部13は、チューナー部12によって生成された映像信号に記録処理を実行する。情報処理部14は、後述するコンテンツの属性の推定等の処理を実行する。入力IF15は、ユーザの操作を受けて入力機器26において生成された入力信号を受信する。
メモリ16は、情報処理部14において処理されるプログラム等が書き込まれ、あるいは読み出される。ディスクドライブ17は、ディスク状記録媒体17aに記録されている情報、例えばコンテンツを読み出し、あるいはディスク状記録媒体17aに情報を記録する。記録媒体18は、プログラムやコンテンツを記憶する。再生処理部19は、ディスクドライブ17あるいは記録媒体18に記憶されているコンテンツに対して再生処理を実行する。
表示処理部20は、再生処理部19によって再生されているコンテンツから映像信号を生成し、ディスプレイ27に供給する。画像音声特徴抽出部21は、再生処理部19によって再生されているコンテンツに対して、画像又は音声のいずれか、又は両方の特徴量(後述)を抽出し、情報処理部14に供給する。システムコントローラ22は、上記各部によるデータバス23及びコントロールバス24を介した各種信号の授受を制御する。なお、上記情報処理部14における所定処理は、ネットワークNを介して接続された所定のサーバーなど(図1では図示せず)で行うことも可能である。
情報処理装置100は以上のような構成を有するものとすることができる。なお、情報処理装置100の構成はここに示すものに限られず適宜変更することが可能である。情報処理装置100は以上のようなハードウェア構成と、それに読み込まれるソフトウェアの協働によって次のような機能的構成を実現する。
図2は、情報処理装置100の機能的構成を示すブロック図であり、図3は情報処理装置100の機能的構成を説明するための模式図である。図2に示すように、情報処理装置100は機能的構成として、コンテンツ再生部101、コンテンツ部分指定部102、クラスタリング部103、クラス検出部104、共通クラス抽出部105及びコンテンツ検索部106を有する。これらの各構成は相互に接続されているとともに、コンテンツ検索部106はネットワークN及びディスプレイ27に接続されている。
コンテンツ再生部101は、コンテンツ(以下、再生コンテンツ)を再生する。再生コンテンツは、動画コンテンツや音声コンテンツ等の各種コンテンツを含む。コンテンツ再生部101は、ネットワークNからダウンロードしたコンテンツや、記録媒体18から読み出したコンテンツを再生コンテンツとして再生するものとすることができる。図3(a)に、ユーザ1によって再生されている再生コンテンツA及びユーザ2によって再生されている再生コンテンツBを示す。なお、再生コンテンツの数は2つ以上であってもよい。
再生コンテンツは、複数のコンテンツ部分を含むものとする。コンテンツ部分は、再生コンテンツの部分であり、典型的には動画コンテンツのシーンである。図3(a)に示す再生コンテンツAにはコンテンツ部分a1、a2、a3、a4及びa5が含まれており、再生コンテンBにはコンテンツ部分b1、b2、b3、b4及びb5が含まれているものとする。
コンテンツ部分指定部102は、再生コンテンツA及び再生コンテンツBにおいて、コンテンツ部分を指定する。コンテンツ部分指定部102は、ユーザによって指定された(例えば、お気に入りとして登録された)コンテンツ部分を指定するものとすることができ、又は後述する手法によってコンテンツ部分指定部102が検出したコンテンツ部分を指定するものとすることができる。図3(a)に示すように、コンテンツ部分指定部102は、コンテンツAについてコンテンツ部分a1〜a5を指定し、コンテンツBについてコンテンツ部分b1〜b5を指定したものとする。コンテンツ部分指定部102は、指定した複数のコンテンツ部分をクラスタリング部103に供給する。
クラスタリング部103は、コンテンツ部分指定部102から供給されたコンテンツ部分を、各コンテンツ部分にそれぞれ含まれる特徴量に基づいて複数のクラスタに分類する。クラスタリング部103は、各コンテンツ部分の画像の特徴量(動きベクトル、色特徴量、輝度特徴量、エッジ特徴量等)あるいは各コンテンツ部分の音声の特徴量(所定周波数帯域の音声パワースペクトル、所定区間における平均音声レベルの特徴量等)を利用して、各コンテンツ部分をクラスタリングするものとすることが可能である。図3(b)に、クラスタリング部103によってコンテンツ部分がクラスタリングされたクラスタC1及びクラスタC2を示す。なお、クラスタリング部103は、コンテンツ部分を2つ以上のクラスタにクラスタリングすることも可能である。クラスタリング部103は、各クラスタ毎のコンテンツ部分をクラス検出部104に供給する。
クラス検出部104は、各クラスタに含まれるコンテンツ部分から「クラス」を検出する。クラスとは、各コンテンツ部分から共通して抽出できる概念である。図3(c)には、各クラスタ毎に検出されたクラスを示す。ここではクラスタC1からクラス1及びクラス2が検出され、クラスタC2からクラス2及びクラス3が検出されたものとする。クラス検出部104は、各クラスタに含まれるコンテンツ部分の特徴量を用いた「オントロジー処理(概念体系化処理)」によって、各クラスタのクラスを検出するものとすることができる。クラス検出部104は、各クラスタについて検出したクラスを共通クラス抽出部105に供給する。
共通クラス抽出部105は、クラス検出部104によって各クラスタについて検出されたクラスのうち、複数のクラスタ間で共通するクラス(以下、共通クラスとする)を抽出する。図3(d)には、抽出された共通クラス(ここではクラス2)を示す。なお、共通クラス抽出部105はネットワークNを介して、複数ユーザのそれぞれのクラスから共通クラスを抽出するものとすることも可能である。共通クラス抽出部105は、抽出した共通クラスをコンテンツ検索部106に供給する。
コンテンツ検索部106は、共通クラスに該当するコンテンツを検索する。図3(e)には、コンテンツ検索部106によって取得されたコンテンツを示す。コンテンツ検索部106は、各共通クラスの特徴量に基づいて、ネットワークN上に存在するコンテンツ、あるいは情報処理装置100に記録されているコンテンツの中から、当該共通クラスに該当する一つ又は複数のコンテンツを検索するものとすることができる。
なお、コンテンツ検索部106が検索するコンテンツは動画コンテンツに限られず、静止画像や音声コンテンツやテキストコンテンツであってもよい。コンテンツ検索部106は、検索したコンテンツダウンロードし、あるいは記録媒体から読み出し、ディスプレイ27等に表示させることによってユーザに提示するものとすることができる。ここで、上記図2における各部103〜106は、ネットワークNを介して接続されている所定のサーバ(図2では図示せず)で行うことも可能である。その場合には、上記図2におけるコンテンツ部分指定部102から出力されたデータを上記、ネットワークNを介して接続された所定サーバ(図2では図示せず)に入力して各所定処理を行うことができる。
[情報処理装置の動作]
情報処理装置100の動作について説明する。図4は情報処理装置100の動作を示すフローチャートであり、図5は情報処理装置100の動作を示す模式図である。
まず、コンテンツ部分指定部102は、カウンタを初期化(n=0)する(St101)。カウンタは、コンテンツ部分指定部102が指定したコンテンツ部分の数を示すものであり、後述するステップにおいて利用されるものである。
続いて、情報処理装置100は、ユーザによって本技術に係る検索モードの利用が指示されているか否かを確認する(St102)。本技術に係る検索モードの利用が指示されなかった場合(St102:No)には情報処理装置100は、指示された動作モードへ移行する。本技術に係る検索モードの利用が指示された場合(St102:Yes)には、コンテンツ再生部101が、ユーザによって選択されたコンテンツを再生する(St103)。
続いて、画像音声特徴抽出部21によって、再生されているコンテンツに対して特徴量抽出処理が実行される(St104)。画像音声特徴抽出部21は、コンテンツから画像特徴量又は音声特徴量あるいはその両方を抽出するものとすることができる。
続いて、ユーザによってコンテンツ部分の指定が手動で実行されるか、自動で実行されるかが選択される(St105)。手動によるコンテンツ部分の指定が選択された場合(St105:Yes)、ユーザによってコンテンツ部分が指定される(St106)。ユーザはリモートコントローラや所定のカーソル手段、タッチパネルの場合には直接タッチすることでコンテンツ部分を指定するものとすることが可能である。
コンテンツ部分指定部102は、ユーザによって指定されたコンテンツ部分(例えば、ユーザがお気に入りとして登録したシーン)を指定する。コンテンツ部分の指定と同時に、コンテンツ部分指定部102は、指定したコンテンツ部分の数に応じてカウンタをプラス(n++)する。
また、自動によるコンテンツ部分の指定が選択された場合(St105:No)、コンテンツ部分指定部102は、画像音声特徴抽出部21によって抽出されたコンテンツの特徴量に基づいてコンテンツ部分を指定する(St107)。詳細は後述するが、コンテンツ部分指定部102は、コンテンツの特徴量(例えば所定区間の動きベクトル、色特徴量、輝度特徴量等の画像特徴量及び音声パワースペクトル、所定区間における平均音声レベル等の音声特徴量)から、コンテンツにおける重要シーン(例えば盛り上がりシーン)を特定し、コンテンツ部分として指定するものとすることができる。図5(a)に、コンテンツ部分指定部102によって指定されたコンテンツ部分a1〜a6を示す。
続いて、情報処理装置100は、コンテンツの再生が終了した場合(St108:Yes)にはカウンタの確認(St109)を実行する。一方、情報処理装置100は、コンテンツの再生が終了していない場合(St108:No)には、コンテンツ部分の指定方法の選択(St105)に戻る。
続いて、クラスタリング部103は、カウンタ数が1以上の場合(St109:Yes)、クラスタリングを実行する(St110)。クラスタリング部103は、画像音声特徴抽出部21によって抽出された各コンテンツ部分の特徴量をデータベースと照合することにより、各コンテンツ部分に含まれる物体を認識するものとすることができる。この物体の認識は、動画コンテンツの場合、各フレーム画像を画像セグメンテーション処理を行った後、各セグメンテーション領域における所定の画像特徴量を用いて処理を行うことも可能である。静止画像の場合には各画像ごとに同様の処理を行うことができる。続いてクラスタリング部103は、認識された物体に応じて各コンテンツ部分を各クラスタに分類(クラスタリング)する。図5(b)に、クラスタリングされたコンテンツ部分の例を示す。図5(b)に示すようにコンテンツ分部a1〜a3がクラスタC1として、コンテンツ部分a4〜a6がクラスタC2としてクラスタリングされたものとする。
なお、カウンタ数が0の場合(St109:No)、クラスタリングが実行できないため、情報処理装置100は本技術に係る検索が実行できない旨の警告を生成する(St115)。
クラスタリング部103は、k−means法、ファジーc−means法等の公知のクラスタリング処理によって、クラスタリングを実行するものとすることができる。また、クラスタリング部103は、機械学習手法に基づいて、コンテンツ部分をデータベース上で予め処理された所定のクラスに分類するものとすることも可能である。機械学習手法としは、ニューラルネットワークやSVM(サポートベクターマシン)が知られている。ここで、上記図5(a)〜(b)の処理は、初めに特徴量に基づいてクラスタリング処理を行い、その後、クラスタリング処理された各クラスに毎に物体の認識処理を行うことも考えられる。その場合、各クラスの各コンテンツのデータごとに所定特徴量に基づいて認識処理を行い、その結果を多数決処理し認識判定処理を行うことも可能である。また、各クラスにおける各コンテンツの所定特徴量の平均データに基づいて認識処理を行うことも可能である。
続いて、クラス検出部104は、各クラスタに含まれる各コンテンツ部分の特徴量を用いたオントロジー処理によって、各クラスタのクラスを検出する。(St111)。例えば、図5(c)に示すように、クラスタC1に含まれるコンテンツ部分が「ケーキ」のシーンである場合、クラス検出部104はオントロジー処理によって、「ケーキ」に関連するクラスを検出する。ここではクラス検出部104によって、「スイーツ」、「代官山」、「フルーツ」、「レシピ」、「ダイエット」、「ファッション」、「健康」及び「季節」の各クラスが検出されたものとする。以下、これらを検出クラスD1とする。
同様に、クラスタC2に含まれるコンテンツ部分が「スポーツ」のシーンである場合、クラス検出部104は、オントロジー処理によって、「スポーツ」に関連するクラスを検出する。ここではクラス検出部104によって「オリンピック」、「ワールドカップ」、「怪我」「ダイエット」、「ファッション」、「健康」、「季節」の各クラスが検出されたものとする。以下、これらを検出クラスD2とする。
続いて、共通クラス抽出部105は、検出クラスD1と検出クラスD2の間で共通するクラス(共通クラス)を抽出する(St112)。図5(c)においては、「ダイエット」、「ファッション」、「健康」及び「季節」が検出クラスD1と検出クラスD2に共に含まれる共通クラスである。
続いて、コンテンツ検索部106は、共通クラスに該当するコンテンツを検索する(St113)。図5(d)に示すように、コンテンツ検索部106は、例えば、共通クラスを検索キーワードとして検索し、あるいはコンテンツに付与されているメタ情報(EPG:電子番組ガイド等)の中から共通クラスに一致するものを検索するものとすることが可能である。
続いて情報処理装置100は、コンテンツ検索部106によって検索されたコンテンツをユーザに提示する(St114)。情報処理装置100は、当該コンテンツをディスプレイ27等に表示させることによってユーザに提示するものとすることができる。また、情報処理装置100は、コンテンツ検索部106によって検索されたコンテンツ以外にも、共通クラス抽出部105によって抽出された共通クラスをキーワードとしてユーザに提示するものとすることも可能である。
以上のように、本実施形態に係る情報処理装置100は、ユーザによって指定され、又は再生コンテンツから抽出された複数のコンテンツ部分の間で、共通するクラスに該当するコンテンツが検索される。したがって、情報処理装置100は、ユーザが潜在的に興味を有していると推定されるコンテンツを検索し、ユーザに提供することが可能であり、単に類似あるいは関連するコンテンツをユーザに提供する場合に比べ、多彩なコンテンツをユーザに提供することが可能である。
[特徴量抽出について]
上述のように、自動によるコンテンツ部分の指定が選択された場合(St105:No)、コンテンツ部分指定部102は、画像音声特徴抽出部21によって抽出されたコンテンツの特徴量に基づいてコンテンツ部分を指定する(St107)。コンテンツ部分指定部102は、再生コンテンツの特徴量を利用して、当該再生コンテンツにおける重要シーン(盛り上がりシーン)を検出し、検出した重要シーンをコンテンツ部分として指定するものとすることが可能である。
図6は、コンテンツ部分指定部102の、重要シーンの検出に係る模式図である。同図に示すように、コンテンツ部分指定部102は、再生コンテンツの画像データに対して動きベクトル検出(St11)を実行し、検出された画像の動きベクトルから、カメラ動き特徴(カメラ特徴)を判定(St12)することができる。カメラ特徴は、当該コンテンツが撮影された際のカメラのパン、チルト、ズーム等のカメラの動作であり、それぞれについてアフィン係数が抽出されるものとすることができる。
また、コンテンツ部分指定部102は、再生コンテンツの音声データに対して音声信号処理(St13)を実行し、検出された所定周波数帯域における音声パワースペクトルや所定区間における平均音声レベル等から、音声の盛り上がりを判定(St14)することができる。
コンテンツ部分指定部102は、コンテンツの画像データから抽出された画像特徴量であるカメラ特徴のアフィン係数及び音声特徴量である所定周波数帯域におけるパワースペクトル値を用いて重要区間評価値を算出する(St15)。コンテンツ部分指定部102は、下記の[式1]を用いて重要区間評価値(G)を算出することが可能である。
G=k1(パン係数)+k2(チルト係数)+k3(ズーム係数)+k4(所定周波数帯域におけるパワースペクトル値) (式1)
k1〜k4:重み係数(k1+k2+k3+k4=1)
コンテンツ部分指定部102は、上記[式1]を用いて算出した重要区間評価値を利用して、再生コンテンツにおける重要シーンを検出し、コンテンツ部分として指定するものとすることが可能である。なお、再生コンテンツにおける重要シーンの検出については、特開2011−78028、WO06/016605、特開2007−318200等に、カメラ特徴とアフィン係数等の特徴量の抽出については特開2009−49546等にも開示されている。コンテンツ部分指定部102は、各種の手法によって再生コンテンツから重要シーンを検出するものとすることが可能である。
本技術は、上記各実施形態にのみ限定されるものではなく、本技術の要旨を逸脱しない範囲内において変更することが可能である。
上記実施形態において、コンテンツ再生部は、ユーザによって選択された再生コンテンツを再生するものとしたが、この際、共通クラス抽出部によって抽出された共通クラスを、再生コンテンツの再生に反映させるものとすることが可能である。具体的には、コンテンツ再生部は、再生コンテンツにおいて共通クラスに該当するコンテンツ部分(シーン)を推奨シーンとしてユーザに提供することができる。これにより、ユーザは例えば推奨シーンのみを再生させることが可能となる。
なお、本技術は以下のような構成も採ることができる。
(1)
再生コンテンツを再生するコンテンツ再生部と、
上記再生コンテンツに含まれる複数のコンテンツ部分を指定するコンテンツ部分指定部と、
上記複数のコンテンツ部分を複数のクラスタに分類するクラスタリング部と、
上記複数のクラスタのそれぞれに含まれる上記複数のコンテンツ部分からクラスを検出するクラス検出部と、
上記クラス検出部によって検出されたクラスのうち、上記複数のクラスタの間で共通する共通クラスを抽出する共通クラス抽出部と、
上記共通クラスに該当するコンテンツを検索するコンテンツ検索部と
を具備する情報処理装置。
(2)
上記(1)に記載の情報処理装置であって、
上記コンテンツ部分指定部は、ユーザによる指定を受けて上記複数のコンテンツ部分を指定する
情報処理装置。
(3)
上記(1)又は(2)に記載の情報処理装置であて、
上記コンテンツ部分指定部は、上記再生コンテンツから抽出された特徴量に基づいて、上記複数のコンテンツ部分を指定する
情報処理装置。
(4)
上記(1)から(3)のいずれか一つに記載の情報処理装置であって、
上記クラス検出部は、記複数のクラスタのそれぞれに含まれる上記複数のコンテンツ部分に対してオントロジー処理を実行し、上記複数のコンテンツ部分からクラスを検出する
情報処理装置。
(5)
上記(1)から(4)のいずれか一つに記載の情報処理装置であって、
上記クラスタリング部は、上記複数のコンテンツ部分からそれぞれ検出された特徴量に基づいて、上記複数のコンテンツ部分を上記複数のクラスタに分類する
情報処理装置。
(6)
上記(1)から(5)のいずれか一つに記載の情報処理装置であって、
上記コンテンツ部分指定部は、上記再生コンテンツから抽出された画像の特徴量に基づいて、上記複数のコンテンツ部分を指定する
情報処理装置。
(7)
上記(1)から(6)のいずれか一つに記載の情報処理装置であって、
上記コンテンツ部分指定部は、上記再生コンテンツから抽出された音声の特徴量に基づいて、上記複数のコンテンツ部分を指定する
情報処理装置。
(8)
上記(1)から(7)のいずれか一つに記載の情報処理装置であって、
上記コンテンツ再生部は、上記再生コンテンツの再生に上記共通クラスを反映させる
情報処理装置。
(9)
再生コンテンツを再生するコンテンツ再生部と、
上記再生コンテンツに含まれる複数のコンテンツ部分を指定するコンテンツ部分指定部と、
上記複数のコンテンツ部分を複数のクラスタに分類するクラスタリング部と、
上記複数のクラスタのそれぞれに含まれる上記複数のコンテンツ部分からクラスを検出するクラス検出部と、
上記クラス検出部によって検出されたクラスのうち、上記複数のクラスタの間で共通する共通クラスを抽出する共通クラス抽出部と、
上記共通クラスに該当するコンテンツを検索するコンテンツ検索部と
として情報処理装置を機能させるプログラム。
(10)
コンテンツ再生部が、再生コンテンツを再生し、
コンテンツ部分指定部が、上記再生コンテンツに含まれる複数のコンテンツ部分を指定し、
クラスタリング部が、上記複数のコンテンツ部分を複数のクラスタに分類し、
クラス検出部が、上記複数のクラスタのそれぞれに含まれる上記複数のコンテンツ部分からクラスを検出し、
共通クラス抽出部が、上記クラス検出部によって検出されたクラスのうち、上記複数のクラスタの間で共通する共通クラスを抽出し、
コンテンツ検索部が、上記共通クラスに該当するコンテンツを検索する
情報処理方法。
100…情報処理装置
101…コンテンツ再生部
102…コンテンツ部分指定部
103…クラスタリング部
104…クラス検出部
105…共通クラス抽出部
106…コンテンツ検索部

Claims (10)

  1. 再生コンテンツを再生するコンテンツ再生部と、
    前記再生コンテンツに含まれる複数のコンテンツ部分を指定するコンテンツ部分指定部と、
    前記複数のコンテンツ部分を複数のクラスタに分類するクラスタリング部と、
    前記複数のクラスタのそれぞれに含まれる前記複数のコンテンツ部分からクラスを検出するクラス検出部と、
    前記クラス検出部によって検出されたクラスのうち、前記複数のクラスタの間で共通する共通クラスを抽出する共通クラス抽出部と、
    前記共通クラスに該当するコンテンツを検索するコンテンツ検索部と
    を具備する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記コンテンツ部分指定部は、ユーザによる指定を受けて前記複数のコンテンツ部分を指定する
    情報処理装置。
  3. 請求項1に記載の情報処理装置であって、
    前記コンテンツ部分指定部は、前記再生コンテンツから抽出された特徴量に基づいて、前記複数のコンテンツ部分を指定する
    情報処理装置。
  4. 請求項1に記載の情報処理装置であって、
    前記クラス検出部は、記複数のクラスタのそれぞれに含まれる前記複数のコンテンツ部分に対してオントロジー処理を実行し、前記複数のコンテンツ部分からクラスを検出する
    情報処理装置。
  5. 請求項1に記載の情報処理装置であって、
    前記クラスタリング部は、前記複数のコンテンツ部分からそれぞれ検出された特徴量に基づいて、前記複数のコンテンツ部分を前記複数のクラスタに分類する
    情報処理装置。
  6. 請求項3に記載の情報処理装置であって、
    前記コンテンツ部分指定部は、前記再生コンテンツから抽出された画像の特徴量に基づいて、前記複数のコンテンツ部分を指定する
    情報処理装置。
  7. 請求項3に記載の情報処理装置であって、
    前記コンテンツ部分指定部は、前記再生コンテンツから抽出された音声の特徴量に基づいて、前記複数のコンテンツ部分を指定する
    情報処理装置。
  8. 請求項1に記載の情報処理装置であって、
    前記コンテンツ再生部は、前記再生コンテンツの再生に前記共通クラスを反映させる
    情報処理装置。
  9. 再生コンテンツを再生するコンテンツ再生部と、
    前記再生コンテンツに含まれる複数のコンテンツ部分を指定するコンテンツ部分指定部と、
    前記複数のコンテンツ部分を複数のクラスタに分類するクラスタリング部と、
    前記複数のクラスタのそれぞれに含まれる前記複数のコンテンツ部分からクラスを検出するクラス検出部と、
    前記クラス検出部によって検出されたクラスのうち、前記複数のクラスタの間で共通する共通クラスを抽出する共通クラス抽出部と、
    前記共通クラスに該当するコンテンツを検索するコンテンツ検索部と
    として情報処理装置を機能させるプログラム。
  10. コンテンツ再生部が、再生コンテンツを再生し、
    コンテンツ部分指定部が、前記再生コンテンツに含まれる複数のコンテンツ部分を指定し、
    クラスタリング部が、前記複数のコンテンツ部分を複数のクラスタに分類し、
    クラス検出部が、前記複数のクラスタのそれぞれに含まれる前記複数のコンテンツ部分からクラスを検出し、
    共通クラス抽出部が、前記クラス検出部によって検出されたクラスのうち、前記複数のクラスタの間で共通する共通クラスを抽出し、
    コンテンツ検索部が、前記共通クラスに該当するコンテンツを検索する
    情報処理方法。
JP2012124314A 2012-05-31 2012-05-31 情報処理装置、プログラム及び情報処理方法 Active JP5994974B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012124314A JP5994974B2 (ja) 2012-05-31 2012-05-31 情報処理装置、プログラム及び情報処理方法
US13/875,527 US9854220B2 (en) 2012-05-31 2013-05-02 Information processing apparatus, program, and information processing method
CN2013101963327A CN103455935A (zh) 2012-05-31 2013-05-24 信息处理设备、程序以及信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012124314A JP5994974B2 (ja) 2012-05-31 2012-05-31 情報処理装置、プログラム及び情報処理方法

Publications (2)

Publication Number Publication Date
JP2013250720A true JP2013250720A (ja) 2013-12-12
JP5994974B2 JP5994974B2 (ja) 2016-09-21

Family

ID=49670372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012124314A Active JP5994974B2 (ja) 2012-05-31 2012-05-31 情報処理装置、プログラム及び情報処理方法

Country Status (3)

Country Link
US (1) US9854220B2 (ja)
JP (1) JP5994974B2 (ja)
CN (1) CN103455935A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015130176A (ja) * 2014-01-07 2015-07-16 三星電子株式会社Samsung Electronics Co.,Ltd. 会議内容構造化装置及び方法
US10910000B2 (en) 2016-06-28 2021-02-02 Advanced New Technologies Co., Ltd. Method and device for audio recognition using a voting matrix

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6856115B2 (ja) * 2017-02-27 2021-04-07 ヤマハ株式会社 情報処理方法および情報処理装置
WO2021040089A1 (ko) * 2019-08-29 2021-03-04 주식회사 테크플럭스 이미지 유사성 기반, 이종 토픽 문서에서 온톨로지 데이터 확장방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005107885A (ja) * 2003-09-30 2005-04-21 Casio Comput Co Ltd 画像分類装置及び画像分類プログラム
WO2010061538A1 (ja) * 2008-11-28 2010-06-03 日本電気株式会社 情報検索装置、情報検索方法、及び記録媒体
JP2012079187A (ja) * 2010-10-05 2012-04-19 Yahoo Japan Corp 特徴ベクトル生成装置、特徴ベクトル生成方法及びプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6724933B1 (en) * 2000-07-28 2004-04-20 Microsoft Corporation Media segmentation system and related methods
US7191175B2 (en) * 2004-02-13 2007-03-13 Attenex Corporation System and method for arranging concept clusters in thematic neighborhood relationships in a two-dimensional visual display space
US8612208B2 (en) * 2004-04-07 2013-12-17 Oracle Otc Subsidiary Llc Ontology for use with a system, method, and computer readable medium for retrieving information and response to a query
US7472121B2 (en) * 2005-12-15 2008-12-30 International Business Machines Corporation Document comparison using multiple similarity measures
KR100822376B1 (ko) * 2006-02-23 2008-04-17 삼성전자주식회사 곡명을 이용한 음악 주제 분류 방법 및 시스템
JP4274221B2 (ja) 2006-10-02 2009-06-03 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
US7788265B2 (en) * 2006-12-21 2010-08-31 Finebrain.Com Ag Taxonomy-based object classification
JP2008167363A (ja) * 2007-01-05 2008-07-17 Sony Corp 情報処理装置および方法、並びにプログラム
US8732197B2 (en) * 2007-02-02 2014-05-20 Musgrove Technology Enterprises Llc (Mte) Method and apparatus for aligning multiple taxonomies
US8200063B2 (en) * 2007-09-24 2012-06-12 Fuji Xerox Co., Ltd. System and method for video summarization
JP2009080580A (ja) * 2007-09-25 2009-04-16 Toshiba Corp 映像表示装置及び方法
JP4683031B2 (ja) 2007-10-17 2011-05-11 ソニー株式会社 電子機器、コンテンツ分類方法及びそのプログラム
CN101521655B (zh) 2008-02-29 2011-11-16 华为技术有限公司 信息搜索、发布方法和系统及同义节点群集方法和装置
CN102124466B (zh) 2008-09-05 2013-09-11 索尼公司 内容推荐系统、内容推荐方法和内容推荐设备
US8374975B1 (en) * 2009-08-12 2013-02-12 Google Inc. Clustering to spread comments to other documents
KR20110080973A (ko) * 2010-01-07 2011-07-13 (주)인사이드밸류 사용자 그룹 계층별 맞춤형 콘텐츠 서비스 방법
JP2011223287A (ja) * 2010-04-09 2011-11-04 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
JP2011254240A (ja) * 2010-06-01 2011-12-15 Sony Corp 画像処理装置、画像処理方法およびプログラム
JP5092000B2 (ja) * 2010-09-24 2012-12-05 株式会社東芝 映像処理装置、方法、及び映像処理システム
CN103026704B (zh) * 2011-05-23 2016-11-23 松下电器(美国)知识产权公司 信息处理装置、信息处理方法以及集成电路

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005107885A (ja) * 2003-09-30 2005-04-21 Casio Comput Co Ltd 画像分類装置及び画像分類プログラム
WO2010061538A1 (ja) * 2008-11-28 2010-06-03 日本電気株式会社 情報検索装置、情報検索方法、及び記録媒体
JP2012079187A (ja) * 2010-10-05 2012-04-19 Yahoo Japan Corp 特徴ベクトル生成装置、特徴ベクトル生成方法及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015130176A (ja) * 2014-01-07 2015-07-16 三星電子株式会社Samsung Electronics Co.,Ltd. 会議内容構造化装置及び方法
US10910000B2 (en) 2016-06-28 2021-02-02 Advanced New Technologies Co., Ltd. Method and device for audio recognition using a voting matrix
US11133022B2 (en) 2016-06-28 2021-09-28 Advanced New Technologies Co., Ltd. Method and device for audio recognition using sample audio and a voting matrix

Also Published As

Publication number Publication date
US9854220B2 (en) 2017-12-26
CN103455935A (zh) 2013-12-18
JP5994974B2 (ja) 2016-09-21
US20130322849A1 (en) 2013-12-05

Similar Documents

Publication Publication Date Title
JP5038607B2 (ja) スマートメディアコンテンツサムネイル抽出のシステムおよび方法
US10129515B2 (en) Display control device, recording control device, and display control method
JP4662779B2 (ja) 類似のビデオコンテンツへの乗り換えのための装置
CN102207954B (zh) 电子设备、内容推荐方法及其程序
US20090077137A1 (en) Method of updating a video summary by user relevance feedback
US8103149B2 (en) Playback system, apparatus, and method, information processing apparatus and method, and program therefor
US20160071182A1 (en) Multimedia recommendation based on artist similarity
US20230315784A1 (en) Multimedia focalization
JP5994974B2 (ja) 情報処理装置、プログラム及び情報処理方法
WO2011059029A1 (ja) 映像処理装置、映像処理方法、および映像処理プログラム
US8634708B2 (en) Method for creating a new summary of an audiovisual document that already includes a summary and reports and a receiver that can implement said method
CN103514248B (zh) 视频记录设备、信息处理系统、信息处理方法和记录介质
KR102592904B1 (ko) 영상 요약 장치 및 방법
JP2009201041A (ja) コンテンツ検索装置およびその表示方法
US20090132510A1 (en) Device for enabling to represent content items through meta summary data, and method thereof
US20230384911A1 (en) Motion stills experience
JP2010505176A (ja) サマリ生成方法
KR101377737B1 (ko) 네트워크에 접속된 휴대가능 저장 장치들에 대한 저장프로파일 생성
JP2010148056A (ja) コンテンツ再生装置、コンテンツ再生方法、コンテンツ再生処理プログラム及びコンピュータ読み取り可能な記録媒体
JP2007208651A (ja) コンテンツ視聴装置
JP2008153920A (ja) 動画像一覧表示装置
JP2005328329A (ja) 映像再生装置と映像録画再生装置と映像再生方法
JP2007104284A (ja) ダイジェスト情報生成装置及びダイジェスト情報生成方法
JP5266981B2 (ja) 電子機器、情報処理方法及びプログラム
US20140189769A1 (en) Information management device, server, and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160712

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160722

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160809

R150 Certificate of patent or registration of utility model

Ref document number: 5994974

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250