JP2011180917A - 画像処理装置、コンテンツ配信システム、画像処理方法、及びプログラム - Google Patents

画像処理装置、コンテンツ配信システム、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2011180917A
JP2011180917A JP2010045744A JP2010045744A JP2011180917A JP 2011180917 A JP2011180917 A JP 2011180917A JP 2010045744 A JP2010045744 A JP 2010045744A JP 2010045744 A JP2010045744 A JP 2010045744A JP 2011180917 A JP2011180917 A JP 2011180917A
Authority
JP
Japan
Prior art keywords
data
image
image data
face
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010045744A
Other languages
English (en)
Other versions
JP5115763B2 (ja
Inventor
Takayuki Kodaira
孝之 小平
Satoshi Imaizumi
聡 今泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC Solution Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd filed Critical NEC Solution Innovators Ltd
Priority to JP2010045744A priority Critical patent/JP5115763B2/ja
Priority to US13/582,198 priority patent/US8971635B2/en
Priority to PCT/JP2011/000296 priority patent/WO2011108183A1/ja
Priority to CN201180011876.0A priority patent/CN102783174B/zh
Publication of JP2011180917A publication Critical patent/JP2011180917A/ja
Application granted granted Critical
Publication of JP5115763B2 publication Critical patent/JP5115763B2/ja
Priority to HK13105160.8A priority patent/HK1178354A1/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41415Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance involving a public display, viewable by several users in a public space outside their home, e.g. movie theatre, information kiosk
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】人の向きによらずに人物像を精度よく検出し、かつこの人の体の向きを検出する。
【解決手段】上体特徴データ記憶部110は、人物の上体であることを示し、かつ当該上体が特定の方向を向いていることを示す上体方向特徴データを、当該上体方向特徴データの方向を示す方向データに対応付けて複数の方向別に記憶している。上体検出部140は、上体特徴データ記憶部110が記憶している複数の上体方向特徴データを方向データに対応付けて読み出し、複数の上体方向特徴データそれぞれを用いることにより、画像データから人物の上体を示す上体画像データを抽出する。
【選択図】図1

Description

本発明は、画像から人物像を抽出する画像処理装置、コンテンツ配信システム、画像処理方法、及びプログラムに関する。
不特定の通行人が通る場所に画像表示装置を設置し、この画像表示装置を介して通行人に情報を提供する、というサービス(以下、デジタルサイネージと記載)が広がっている。このようなサービスに関する技術の一つに、特許文献1に記載の技術がある。この技術は、通行人の顔、半身、又は全身の画像情報を取得し、この画像情報から顔の構成をパラメータ化して特徴量として抽出し、抽出した特徴量に基づいて通行人に提供すべき情報を決定するものである。
特開2003−271084号公報
デジタルサイネージにおいて、画像表示装置の前を通行する人の数と、通行人の体の向きを検出することは、情報提供の効果を測定する上で重要である。従来は、画像データから直接顔画像を抽出していたため、例えば後ろ向きの人など、画像データに顔が十分に移っていない人を検出することは難しかった。このようなことから、人の向きによらずに人物像を精度よく検出し、かつこの人の体の向きを検出できる技術を開発することが望まれている。
本発明の目的は、人の向きによらずに人物像を精度よく検出し、かつこの人の体の向きを検出できる画像処理装置、コンテンツ配信システム、画像処理方法、及びプログラムを提供することにある。
本発明によれば、人物の上体であることを示し、かつ当該上体が特定の方向を向いていることを示す上体方向特徴データを、当該上体方向特徴データの方向を示す方向データに対応付けて複数の方向別に記憶する上体特徴データ記憶手段と、
前記上体特徴データ記憶手段が記憶している前記複数の上体方向特徴データを前記方向データに対応付けて読み出し、前記複数の上体方向特徴データそれぞれを用いることにより、画像データから人物の上体を示す上体画像データを抽出する上体検出手段と、
を備える画像処理装置が提供される。
本発明によれば、映像コンテンツを記憶しているコンテンツ記憶手段と、
通信網を介して前記コンテンツ記憶手段が記憶している前記映像コンテンツを受信し、受信した前記映像コンテンツを表示する画像表示装置と、
前記画像表示装置の前を撮像して画像データを生成する撮像装置と、
通信網を介して前記画像データを受信して処理する画像処理装置と、
を備え、
前記画像処理装置は、
人物の上体であることを示し、かつ当該上体が特定の方向を向いていることを示す上体方向特徴データを、当該上体方向特徴データの方向を示す方向データに対応付けて複数の方向別に記憶する上体特徴データ記憶手段と、
前記上体特徴データ記憶手段が記憶している前記複数の上体方向特徴データを前記方向データに対応付けて読み出し、前記複数の上体方向特徴データそれぞれを用いることにより、前記画像データから人物の上体を示す上体画像データを抽出する上体検出手段と、
を備えるコンテンツ配信システムが提供される。
本発明によれば、画像データを取得する画像取得手段と、
前記画像取得手段が取得した画像データから、画像データから人物の上体を示す上体画像データを抽出するとともに、当該上体画像データが示す上体の向きを特定する画像処理手段と、
を備える画像処理装置が提供される。
本発明によれば、コンピュータが、人物の上体であることを示し、かつ当該上体が特定の方向を向いていることを示す上体方向特徴データを、当該上体方向特徴データの方向を示す方向データに対応付けて複数の方向別に記憶しておき、
前記コンピュータが、前記複数の上体方向特徴データそれぞれを用いることにより、画像データから人物の上体を示す上体画像データを抽出する、画像処理方法が提供される。
本発明によれば、コンピュータを画像処理装置として機能させるプログラムであって、
前記コンピュータに、
人物の上体であることを示し、かつ当該上体が特定の方向を向いていることを示す上体方向特徴データを、当該上体方向特徴データの方向を示す方向データに対応付けて複数の方向別に記憶する機能と、
前記複数の上体方向特徴データそれぞれを用いることにより、画像データから人物の上体を示す上体画像データを抽出する機能と、
を実現させるプログラムが提供される。
本発明によれば、人の向きによらずに人物像を精度よく検出し、かつこの人の体の向きを検出できる。
第1の実施形態にかかる画像処理装置の構成を示すブロック図である。 上体特徴データ記憶部が記憶しているデータの構成をテーブル形式で示す図である 顔特徴データ記憶部が記憶しているデータの構成をテーブル形式で示す図である。 顔画像記憶部が記憶しているデータの構成をテーブル形式で示す図である。 図1に示した画像処理装置の動作を示すフローチャートである。 顔画像記憶部が記憶しているデータの構成の変形例を示す図である。 第2の実施形態に係る画像処理装置の機能構成を示すブロック図である。 上体画像記憶部が記憶しているデータの構成をテーブル形式で示す図である。 図7に示した画像処理装置の動作を示すフローチャートである。 第3の実施形態に係る画像処理装置の機能構成を示すブロック図である。 属性データ記憶部が記憶しているデータをテーブル形式で示す図である。 顔画像記憶部が記憶しているデータをテーブル形式で示す図である。 第4の実施形態に係る画像処理装置機能構成を示すブロック図である。 視聴率記憶部が記憶しているデータをテーブル形式で示す図である。 視聴率算出部の動作を示すフローチャートである。 第5の実施形態に係るコンテンツ配信システムの構成を示す図である。 画像処理装置の機能構成を示すブロック図である。 表示制御部が行う処理の一例を説明するためのフローチャートである。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また以下の各実施形態において「記憶」には、メモリ上に一時的に記憶する場合と、ハードディスクなどに記憶させて保存する場合の双方が含まれる。このため、記憶部は、ハード構成上は、メモリである場合や、ハードディスクやストレージ等である場合などがある。
また以下の各実施形態において、上体方向特徴データとは、画像データから人の上体を抽出するときに用いられるデータである。詳細には、上体方向特徴データは、人物の上体であることを示し、かつ当該上体が特定の方向を向いていることを示すデータである。また方向データとは、人の上体や顔がどの方向を向いているかを示すデータである。顔特徴データは、画像データから人の顔を抽出するときに用いられるデータである。動画識別情報は、画像処理装置100が処理する動画データを互いに識別するためのデータである。
(第1の実施形態)
図1は、第1の実施形態にかかる画像処理装置100の構成を示すブロック図である。画像処理装置100は、上体特徴データ記憶部110及び上体検出部140を供えている。上体特徴データ記憶部110は、人物の上体であることを示し、かつ当該上体が特定の方向を向いていることを示す上体方向特徴データを、当該上体方向特徴データの方向を示す方向データに対応付けて複数の方向別に記憶している。ここで上体とは、例えば人体のうち頭部及び両肩を含む部分を指す。上体検出部140は、上体特徴データ記憶部110が記憶している複数の上体方向特徴データを方向データに対応付けて読み出し、複数の上体方向特徴データそれぞれを用いることにより、画像データから人物の上体を示す上体画像データを抽出する。
また画像処理装置100は、顔特徴データ記憶部120、画像データ取得部130、顔画像検出部150、及び顔画像記憶部160を備えている。
顔特徴データ記憶部120は、人物の顔であることを示し、かつ当該顔が特定の方向を向いていることを示す顔方向特徴データを方向データに対応付けて記憶している。
画像データ取得部130は、画像処理装置100が処理する画像データを、その画像データを他の画像データから識別する画像識別情報に対応付けて取得する。画像データは、静止画を示す画像データであってもよいし、動画の各フレームを示す複数の画像データであってもよい。
顔画像検出部150は、上体画像データを、当該上体画像データを抽出するときに用いた上体方向特徴データに対応する方向データに対応付けて取得し、取得した方向データに対応する顔特徴データを顔特徴データ記憶部120から読み出す。そして顔画像検出部150は、読み出した顔特徴データを用いて上体画像データから人物の顔を示す顔画像データを抽出する。ただし顔画像検出部150は、取得した方向データに対応していない顔特徴データを用いて、顔画像データを抽出してもよい。
顔画像記憶部160は、顔画像検出部150が検出した顔画像データを記憶する。顔画像記憶部160は、顔画像データを、この顔画像データを抽出するときに用いられた顔方向特徴データに対応する方向データに対応付けて記憶してもよい。
なお、図1に示した画像処理装置100の各構成要素は、ハードウエア単位の構成ではなく、機能単位のブロックを示している。画像処理装置100の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスクなどの記憶ユニット、ネットワーク接続用インタフェースを中心にハードウエアとソフトウエアの任意の組合せによって実現される。
図2は、上体特徴データ記憶部110が記憶しているデータの構成をテーブル形式で示す図である。上体特徴データ記憶部110は、複数の向き(角度)別に、その向きを向いている人物の上体画像の特徴データ(上体方向特徴データ)を記憶している。上体方向特徴データのデータ構成は、その上体方向特徴データに対応している向きによって異なっていてもよい。例えば上体方向特徴データは、両手の写り方、胴体の形状、顔の形状、及び目の数等によって定められる。
図3は、顔特徴データ記憶部120が記憶しているデータの構成をテーブル形式で示す図である。顔特徴データ記憶部120は、複数の向き(角度)別に、その向きを向いている人物の顔画像を抽出するときに用いられる特徴データ(顔特徴データ)を記憶している。顔特徴データは、例えば顔の形状、及び目の数等によって定められる。
図4は、顔画像記憶部160が記憶しているデータの構成をテーブル形式で示す図である。顔画像記憶部160は、画像識別情報別に、その画像識別情報に対応する画像データから抽出された顔画像データを記憶している。図4に示す例では、画像データは動画データを構成する各フレームである。そのため画像識別情報は、動画データを識別するための動画識別情報と、フレームを特定するための情報(例えば時刻情報)によって構成されている。また顔画像記憶部160は、顔画像データを、その顔画像データに対応する方向データに対応付けて記憶している。例えば顔画像記憶部160は、図4に示すテーブルを、画像識別情報別かつ方向データ別に有している。
図5は、図1に示した画像処理装置100の動作を示すフローチャートである。本図を含め、これ以降に説明する各処理は、即時に行われてもよいし、バッチ処理によって適切なタイミングで行われてもよい。
まず画像処理装置100の画像データ取得部130は、画像データを画像識別情報に対応付けて取得する(ステップS10)。上体検出部140は、画像データ取得部130が取得した画像データ及び画像識別情報を取得する。次いで上体検出部140は、いずれかの上体方向特徴データを方向データに対応付けて上体特徴データ記憶部110から読み出す(ステップS20)。次いで上体検出部140は、読み出した上体方向特徴データを用いて画像データを処理することにより、上体画像データを抽出する(ステップS30)。次いで上体検出部140は、抽出した上体画像データを顔画像検出部150に出力する。このとき上体検出部140は、画像識別情報、及びステップS20で読み出した上体方向特徴データに対応する方向データを、上体画像データに対応付けて顔画像検出部150に出力する。
次いで顔画像検出部150は、上体検出部140から取得した方向データに対応する顔方向特徴データを顔特徴データ記憶部120から読み出す(ステップS40)。次いで顔画像検出部150は、読み出した顔方向特徴データを用いることにより、上体検出部140から取得した上体画像データから顔画像データを抽出する(ステップS50)。そして顔画像検出部150は、抽出した顔画像データを、上体検出部140から取得した画像識別情報及び方向データに対応付けて顔画像記憶部160に記憶させる(ステップS60)。ただし上述したように顔画像検出部150は、取得した方向データに対応していない顔特徴データを用いて、顔画像データを抽出してもよい。
画像処理装置100は、ステップS20〜ステップS60に示した処理を、全ての上体方向特徴データに対して行う(ステップS62)。
次に、本実施形態の作用及び効果について説明する。本実施形態において画像処理装置100の上体特徴データ記憶部110には、方向データ別に、その方向に対応する上体方向特徴データが記憶されている。そして上体検出部140は、上体特徴データ記憶部110が記憶している上体方向特徴データを用いて、画像データから上体画像データを抽出する。従って、人の向きによらずに人物像を精度よく検出し、かつこの人の体の向きを検出することができる。
また顔画像検出部150は、上体検出部140が検出した上体画像データから顔画像データを検出している。このようにすると、画像データから直接顔画像を検出する場合と比較して、精度よく顔画像データを検出することができる。
なお図6に示すように、顔画像記憶部160は、顔画像データを、その顔画像データを抽出するときに用いた顔特徴データに対応している方向データ(顔方向)のみではなく、
その顔画像データを抽出した上体画像データに対応している方向データ(上体方向)にも対応付けて記憶してもよい。
(第2の実施形態)
図7は、第2の実施形態に係る画像処理装置100の機能構成を示すブロック図である。本実施形態に係る画像処理装置100の機能構成は、上体画像記憶部145を有している点を除いて、第1の実施形態に係る画像処理装置100と同様の構成である。上体画像記憶部145は、上体検出部140が検出した上体画像データを、当該上体画像データを抽出するときに用いた上体方向特徴データに対応する方向データに対応付けて記憶している。
図8は、上体画像記憶部145が記憶しているデータの構成をテーブル形式で示す図である。上体画像記憶部145は、画像識別情報別に、その画像識別情報に対応する画像データから抽出された上体画像データを記憶している。画像識別情報の構成は、第1の実施形態において図4を用いて説明した構成と同様である。また上体画像記憶部145は、上体画像データを、その上体画像データに対応する方向データに対応付けて記憶している。例えば上体画像記憶部145は、図8に示すテーブルを、画像識別情報別かつ方向データ別に有している。
図9は、図7に示した画像処理装置100の動作を示すフローチャートである。本実施形態において、上体画像データを抽出するまでの処理(ステップS10〜ステップS30)は第1の実施形態において図5を用いて説明した処理と同様であるため、説明を省略する。
上体検出部140は上体画像データを抽出すると、抽出した上体画像データを、画像識別情報及び方向データに対応付けて上体画像記憶部145に記憶させる(ステップS32)。そして上体検出部140は、ステップS20〜ステップS32に示した処理を、全ての上体方向特徴データに対して行う(ステップS34)。
その後顔画像検出部150は、特定の方向データに対応している上体画像データのみを読み出す。すなわち顔画像検出部150は、予め定められた少なくとも一つの方向データ、例えば後ろ向き(180°)や横向き(90°,270°)に対応付けられている上体画像データを読み出さず、残りの方向データ、例えば正面向き(0°)に対応付けられている上体画像データを読み出す(ステップS36)。
その後の処理(ステップS40〜ステップS60)は、第1の実施形態と同様であるため説明を省略する。
本実施形態によっても、第1の実施形態と同様の効果を得ることができる。また上体画像記憶部145を有しているため、抽出した上体画像データとその方向を示す方向データを用いて、上体画像データを処理することができる。例えば図9に示す例では、顔画像検出部150は、全ての上体画像データに対して顔画像の抽出処理を行うのではなく、特定の方向、例えば正面を向いている上体画像データに対してのみ顔画像データの抽出処理を行う。このため、画像処理装置100の負荷を少なくすることができる。
(第3の実施形態)
図10は、第3の実施形態に係る画像処理装置100の機能構成を示すブロック図である。本実施形態における画像処理装置100は、属性検出部170及び属性データ記憶部175を有している点を除いて、第1又は第2の実施形態に係る画像処理装置に示す画像処理装置100と同様の構成である。なお図10は、第2の実施形態と同様の場合を示している。
属性データ記憶部175は、属性別、例えば年齢別及び性別に顔の特徴を示す属性特徴データを、例えば方向データ別に記憶している。属性検出部170は、属性データ記憶部175が記憶している属性特徴データを読み出して用いることにより、顔画像記憶部160が記憶している顔画像データを年齢別かつ性別に分類する。
具体的には属性検出部170は、顔画像記憶部160から顔画像データを方向データに対応付けて読み出す。そして属性検出部170は、顔画像記憶部160から読み出した方向データに対応する属性特徴データを、属性データ記憶部175から読み出す。そして属性検出部170は、属性データ記憶部175から読み出した特徴データを用いることにより、顔画像記憶部160から読み出した顔画像データの属性を示すデータを定める。そして属性検出部170は、属性を示すデータを、その顔画像データに対応させて顔画像記憶部160に記憶させる。
なお属性検出部170が行う処理は、予め定められた方向データ、例えば正面を向いていることを示す方向データに対応している顔画像データに対してのみ行われてもよい。
図11は、属性データ記憶部175が記憶しているデータをテーブル形式で示す図である。本図に示すように属性データ記憶部175は、年齢層別及び性別に顔の特徴を示す属性特徴データを、方向データに対応付けて記憶している。なお本図に示す例では、年齢層は10歳単位で区切られているが、年齢層を定義する単位はこれに限定されない。また本図に示す例では属性データ記憶部175は、方向データが0°、すなわち正面を向いているときに用いられる特徴データを記憶しているが、他の方向を向いているときに用いられる特徴データをさらに記憶していてもよい。
図12は、本実施形態における顔画像記憶部160が記憶しているデータをテーブル形式で示す図である。本実施形態において顔画像記憶部160は、図4に示したデータに加えて、さらに属性を示すデータを顔画像データに対応付けて記憶している。
本実施形態によっても第1又は第2の実施形態と同様の効果を得ることができる。また顔画像データに属性を示すデータが対応付けられるため、どのような属性の人がどの方向を向いているかを分析することができる。また属性データ記憶部175は方向データ別に属性データを記憶しているため、属性検出部170は、高い精度で顔画像データ別に属性を定めることができる。
(第4の実施形態)
図13は、第4の実施形態に係る画像処理装置100の機能構成を示すブロック図である。本実施形態に係る画像処理装置100は、以下の点を除いて第2又は第3の実施形態のいずれかと同様の構成である。なお図13は、第3の実施形態と同様の場合を示している。
本実施形態において画像データは、画像表示装置の前を撮像することにより生成されている。そして複数の方向データは、視認方向データと非視認方向データとに分けられている。視認方向データは、上体画像データが示す上体が画像表示装置を向いていることを示すものであり、非視認方向データは、上体画像データが示す上体が画像表示装置を向いていないことを示している。
そして画像処理装置100は、視聴率算出部180及び視聴率記憶部185を備えている。視聴率算出部180は、上体画像記憶部145が記憶している上体画像データを用いて、画像表示装置の視聴率を算出する。視聴率は、例えば、上体画像データの総数に対する、視認方向データに対応している上体画像データの数の比率として算出される。画像処理装置100が複数存在している場合、視聴率記憶部185は、画像処理装置100の識別情報別に視聴率を算出する。視聴率記憶部185は、視聴率算出部180が算出した視聴率を、日時を示す情報に対応付けて記憶する。
図14は、視聴率記憶部185が記憶しているデータをテーブル形式で示す図である。視聴率記憶部185は、日別かつ時間帯別に視聴率を記憶している。画像処理装置100が複数存在している場合、視聴率記憶部185は、画像処理装置100の識別情報別に、日別かつ時間帯別の視聴率を記憶してもよい。ただし、視聴率の単位はこれに限定されず、画像処理装置100の識別情報別ではなく全体的な視聴率を記憶してもよい。
図15は、視聴率算出部180の動作を示すフローチャートである。視聴率算出部180は、予め決められたタイミングで、本図に示す処理を行う。
まず視聴率算出部180は、予め決められた時間帯別に、上体画像記憶部145が記憶している上体画像データの数を集計する。これにより、上体画像データの総数すなわちその時間帯に画像処理装置の前を通った人の総数が算出される(ステップS110)。
次いで視聴率算出部180は、予め決められた時間帯別に、上体画像記憶部145が記憶している上体画像データのうち視認方向データに対応している上体画像データの数を集計する。これにより、その時間帯に画像処理装置を視認したと推定される人の数が算出される(ステップS120)。
次いで視聴率算出部180は、ステップS120で算出した数をステップS110で算出した数で除することにより、予め決められた時間帯別に視聴率を算出する(ステップS130)。その後視聴率算出部180は、視聴率記憶部185に、時間帯別の視聴率を記憶させる(ステップS140)。
本実施形態によっても、第2又は第3の実施形態と同様の処理を行い、これらと同様の効果を得ることができる。また視聴率算出部180が視聴率を算出しているが、この視聴率は、上体画像データの数に基づいて算出されている。すなわち本実施形態において視聴率の母数となるデータには、例えば横向きや後ろ向きの人など、顔検出のみでは検出することが難しい人物も含まれる。従って、高い精度で視聴率を算出することができる。
また非視認方向データに対応している上体画像データの数等を分析することにより、画像処理装置の前を通る人が画像処理装置を視認しない理由を推定できる場合もある。
なお本実施形態において、画像処理装置100が処理する画像データは、展示スペースを撮像することにより生成されてもよい。この場合、画像処理装置100を用いることにより、展示スペースの視聴率、すなわち展示スペースの前を通った人の総数に対する展示スペースを視認した人の割合を算出することができる。
また顔画像記憶部160が図6に示すデータ構成を有していた場合、視聴率算出部180は、顔画像記憶部160が記憶しているデータを用いて視聴率を算出してもよい。この場合、視聴率算出部180は、上体の方向と顔の方向の組み合わせに基づいて、視聴率を個別に算出することができる。この場合、顔特徴データ記憶部120は、上体画像データが示す上体の向きから独立した状態で、顔の向き別に顔特徴データを記憶している。そして顔画像データ検出部150は、顔画像データを検出するときに用いた顔特徴データに対応する顔の向きを、顔画像記憶部160に記憶させる。
例えば視聴率算出部180は、上体と顔の双方が画像表示装置の正面を向いていた顔画像データの数を予め定められた時間帯別に算出し、この数を、第1の視聴率を算出するときの分子としてもよい。また視聴率算出部180は、顔のみが画像表示装置の正面を向いていた顔画像データの数を予め定められた時間帯別に算出し、この数を、第2の視聴率を算出するときの分子としてもよい。なお、第1の視聴率及び第2の視聴率を算出する場合のいずれにおいても、視聴率の分母は、顔画像記憶部160が記憶している顔画像データの総数を予め定められた時間帯別に算出することにより、定められる。これらの場合は、例えば画像処理装置100は第1の実施形態と同様の構成をとることもできる。
(第5の実施形態)
図16は、第5の実施形態に係るコンテンツ配信システムの構成を示す図である。このコンテンツ配信システムは、画像処理装置100、コンテンツ配信装置200、画像表示装置300、及び撮像装置400を備えている。
コンテンツ配信装置200は映像コンテンツを記憶しており、この映像コンテンツを、インターネット等の通信網10を介して画像表示装置300に送信する。画像表示装置300は、コンテンツ配信装置200から受信した映像コンテンツを表示する。撮像装置400は、画像表示装置300の前を撮像して画像データ、例えば動画データを生成し、生成した画像データを、即時に通信網10を介して画像処理装置100に送信する。画像処理装置100は、撮像装置400から受信した画像データに対して、第4の実施形態に示した処理を行う。
図17は、本実施形態における画像処理装置100の機能構成を示すブロック図である。本実施形態における画像処理装置100は、以下の点を除いて第4の実施形態に示した画像処理装置100と同様の構成である。
まず、画像データ取得部130は、撮像装置400から画像データを受信する。そして上体検出部140は、受信した画像データを即時に処理して上体画像データを抽出する。
また画像処理装置100は、表示制御部190を備えている。表示制御部190は、上体検出部140が検出した上体画像データのうち視認方向データに対応している上体画像データの数や、抽出された上体画像データに対応している方向データに基づいて、画像表示装置300を制御する。
図18は、表示制御部190が行う処理の一例を説明するためのフローチャートである。画像処理装置100の画像データ取得部130が画像データを取得する(ステップS110)と、上体検出部140は、視認方向データに対応している上体方向特徴データを即時に読み出す(ステップS120)。次いで上体検出部140は、ステップS120で読み出した上体方向特徴データを用いることにより、ステップS110で取得した画像データから上体画像データを抽出する処理を行う(ステップS130)。上体画像データが抽出された場合(ステップS140:Yes)、表示制御部190は処理を行わない。上体画像データが抽出されなかった場合(ステップS140:No)、表示制御部190は、画像表示装置300を制御する(ステップS150)。ここで行う制御は、例えば画像表示装置300の音声を大きくする処理や、画像表示装置300の表示を中止する処理がある。
また表示制御部190は、抽出された上体画像データに対応している方向データに基づいて、画像表示装置300を制御する場合、上体検出部140は、全ての上体方向特徴データを用いて、ステップS110で取得した画像データから上体画像データを抽出する処理を即時に行う。そして抽出した上体画像データに対応している方向データの集計結果に基づいて、画像表示装置300の制御を行う。制御の内容には、例えば画像表示装置300の音声を大きくする処理や、画像表示装置300の表示を中止する処理がある。
本実施形態によっても、第4の実施形態と同様の効果を得ることができる。また表示制御部190は、視認方向データに対応している上体画像データの数に基づいて、画像表示装置300を制御する。従って、画像表示装置300を視認している人の数に基づいて、画像表示装置300を制御することができる。
なお、映像コンテンツが属性を示すデータ(性別や年齢層)に対応付けられている場合、画像処理装置100はコンテンツ配信装置200を制御してもよい。例えば画像処理装置100は、ステップS130で抽出された上体画像データから顔画像データを抽出し、この顔画像データに対応する属性を示すデータを認識する。そして画像処理装置100はコンテンツ配信装置200に、認識した属性に対応する映像コンテンツを画像表示装置300に配信させる。このようにすると、画像表示装置300を注視している人の属性に合わせて、画像表示装置300に映像コンテンツを表示させることができる。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
10 通信網
100 画像処理装置
110 上体特徴データ記憶部
120 顔特徴データ記憶部
130 画像データ取得部
140 上体検出部
145 上体画像記憶部
150 顔画像検出部
160 顔画像記憶部
170 属性検出部
175 属性データ記憶部
180 視聴率算出部
185 視聴率記憶部
190 表示制御部
200 コンテンツ配信装置
300 画像表示装置
400 撮像装置

Claims (15)

  1. 人物の上体であることを示し、かつ当該上体が特定の方向を向いていることを示す上体方向特徴データを、当該上体方向特徴データの方向を示す方向データに対応付けて複数の方向別に記憶する上体特徴データ記憶手段と、
    前記上体特徴データ記憶手段が記憶している前記複数の上体方向特徴データを前記方向データに対応付けて読み出し、前記複数の上体方向特徴データそれぞれを用いることにより、画像データから人物の上体を示す上体画像データを抽出する上体検出手段と、
    を備える画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記上体検出手段が検出した前記上体画像データを、当該上体画像データを抽出するときに用いた前記上体方向特徴データに対応する前記方向データに対応付けて記憶する上体画像記憶手段を備える画像処理装置。
  3. 請求項1又は2に記載の画像処理装置において、
    人物の顔であることを示す顔方向特徴データを前記方向データに対応付けて記憶する顔特徴データ記憶手段と、
    前記上体画像データを、当該上体画像データを抽出するときに用いた前記上体方向特徴データに対応する前記方向データに対応付けて取得し、取得した前記方向データに対応する前記顔方向特徴データを前記顔特徴データ記憶手段から読み出し、読み出した前記顔方向特徴データを用いて前記上体画像データから人物の顔を示す顔画像データを抽出する顔画像検出手段と、
    前記顔画像検出手段が検出した顔画像データを記憶する顔画像記憶手段と、
    を備える画像処理装置。
  4. 請求項3に記載の画像処理装置において、
    前記顔画像検出手段は、予め定められた少なくとも一つの前記方向データに対応付けられている前記上体画像データを読み出さず、残りの前記方向データに対応付けられている前記上体画像データを読み出す画像処理装置。
  5. 請求項3又は4に記載の画像処理装置において、
    属性別に顔の特徴を示す属性特徴データを記憶する属性データ記憶手段と、
    前記属性データ記憶手段が記憶している前記属性特徴データを読み出して用いることにより、前記顔画像データを年齢別かつ性別に分類する属性検出手段をさらに備える画像処理装置。
  6. 請求項5に記載の画像処理装置において、
    前記属性検出手段は、予め定められた前記方向データに対応している前記顔画像データのみを、年齢別かつ性別に分類する画像処理装置。
  7. 請求項1〜6のいずれか一つに記載の画像処理装置において、
    前記画像データは、画像表示装置の前を撮像することにより生成されている画像処理装置。
  8. 請求項7に記載の画像処理装置において、
    前記方向データは、前記上体画像データが示す上体が前記画像表示装置を向いていることを示す視認方向データと、前記画像表示装置を向いていないことを示す非視認方向データとに分けられており、
    前記上体検出手段が検出した前記上体画像データを、当該上体画像データを抽出するときに用いた前記上体方向特徴データに対応する前記方向データに対応付けて記憶する上体画像記憶手段と、
    前記上体画像記憶手段が記憶している前記上体画像データを用いて、前記上体画像データの総数に対する、前記視認方向データに対応する前記上体画像データの数の比率を視聴率として算出する視聴率算出手段をさらに備える画像処理装置。
  9. 請求項3に記載の画像処理装置において、
    前記画像データは、画像表示装置の前を撮像することにより生成されており、
    前記顔特徴データ記憶手段は、前記顔の向き別に前記顔特徴データを記憶しており、
    前記顔画像記憶手段は、前記顔画像データを、当該顔画像データを抽出するときに用いた前記顔特徴データに対応する向き、及び当該顔画像データが抽出された前記上体画像データを抽出するときに用いた前記上体方向特徴データに対応する前記方向データに対応付けて記憶しており、
    前記顔画像記憶手段が記憶している前記顔の向き及び前記方向データの組み合わせを用いて、前記画像表示装置を視認したと推定される前記顔画像データの数を算出し、前記顔画像データの総数に対する、前記算出した数の比率を視聴率として算出する視聴率算出手段をさらに備える画像処理装置。
  10. 請求項7〜9のいずれか一項に記載の画像処理装置において、
    前記方向データは、前記上体画像データが示す上体が前記画像表示装置を向いていることを示す視認方向データと、前記画像表示装置を向いていないことを示す非視認方向データとに分けられており、
    前記上体検出手段は、前記画像データを生成する撮像装置から即時に前記画像データを取得し、当該即時に取得した前記画像データから前記上体画像データを抽出し、
    さらに、前記即時に取得した前記画像データから抽出され、かつ前記視認方向データに対応している前記上体画像データの数に基づいて、前記画像表示装置を制御する表示制御手段を備える画像処理装置。
  11. 請求項7〜10のいずれか一項に記載の画像処理装置において、
    前記上体検出手段は、前記画像データを生成する撮像装置から即時に前記画像データを取得し、当該即時に取得した前記画像データから前記上体画像データを抽出し、
    さらに、前記即時に取得した前記画像データから抽出された前記上体画像データに対応している前記方向データに基づいて、前記画像表示装置を制御する画像処理装置。
  12. 画像データを取得する画像取得手段と、
    前記画像取得手段が取得した画像データから人物の上体を示す上体画像データを抽出するとともに、当該上体画像データが示す上体の向きを特定する画像処理手段と、
    を備える画像処理装置。
  13. 映像コンテンツを記憶しているコンテンツ記憶手段と、
    通信網を介して前記コンテンツ記憶手段が記憶している前記映像コンテンツを受信し、受信した前記映像コンテンツを表示する画像表示装置と、
    前記画像表示装置の前を撮像して画像データを生成する撮像装置と、
    通信網を介して前記画像データを受信して処理する画像処理装置と、
    を備え、
    前記画像処理装置は、
    人物の上体であることを示し、かつ当該上体が特定の方向を向いていることを示す上体方向特徴データを、当該上体方向特徴データの方向を示す方向データに対応付けて複数の方向別に記憶する上体特徴データ記憶手段と、
    前記上体特徴データ記憶手段が記憶している前記複数の上体方向特徴データを前記方向データに対応付けて読み出し、前記複数の上体方向特徴データそれぞれを用いることにより、前記画像データから人物の上体を示す上体画像データを抽出する上体検出手段と、
    を備えるコンテンツ配信システム。
  14. コンピュータが、人物の上体であることを示し、かつ当該上体が特定の方向を向いていることを示す上体方向特徴データを、当該上体方向特徴データの方向を示す方向データに対応付けて複数の方向別に記憶しておき、
    前記コンピュータが、前記複数の前記上体方向特徴データそれぞれを用いることにより、画像データから人物の上体を示す上体画像データを抽出する、画像処理方法。
  15. コンピュータを画像処理装置として機能させるプログラムであって、
    前記コンピュータに、
    人物の上体であることを示し、かつ当該上体が特定の方向を向いていることを示す上体方向特徴データを、当該上体方向特徴データの方向を示す方向データに対応付けて複数の方向別に記憶する機能と、
    前記複数の上体方向特徴データそれぞれを用いることにより、画像データから人物の上体を示す上体画像データを抽出する機能と、
    を実現させるプログラム。
JP2010045744A 2010-03-02 2010-03-02 画像処理装置、コンテンツ配信システム、画像処理方法、及びプログラム Active JP5115763B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2010045744A JP5115763B2 (ja) 2010-03-02 2010-03-02 画像処理装置、コンテンツ配信システム、画像処理方法、及びプログラム
US13/582,198 US8971635B2 (en) 2010-03-02 2011-01-20 Image processing apparatus, content delivery system, image processing method, and program
PCT/JP2011/000296 WO2011108183A1 (ja) 2010-03-02 2011-01-20 画像処理装置、コンテンツ配信システム、画像処理方法、及びプログラム
CN201180011876.0A CN102783174B (zh) 2010-03-02 2011-01-20 图像处理设备、内容传递系统、图像处理方法和程序
HK13105160.8A HK1178354A1 (zh) 2010-03-02 2013-04-29 圖像處理設備、內容傳遞系統、圖像處理方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010045744A JP5115763B2 (ja) 2010-03-02 2010-03-02 画像処理装置、コンテンツ配信システム、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2011180917A true JP2011180917A (ja) 2011-09-15
JP5115763B2 JP5115763B2 (ja) 2013-01-09

Family

ID=44541854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010045744A Active JP5115763B2 (ja) 2010-03-02 2010-03-02 画像処理装置、コンテンツ配信システム、画像処理方法、及びプログラム

Country Status (5)

Country Link
US (1) US8971635B2 (ja)
JP (1) JP5115763B2 (ja)
CN (1) CN102783174B (ja)
HK (1) HK1178354A1 (ja)
WO (1) WO2011108183A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7451673B2 (ja) 2016-01-06 2024-03-18 テレビジョン・インサイツ、インコーポレイテッド 視聴者エンゲージメントを評価するためのシステムおよび方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10120057B1 (en) 2015-10-13 2018-11-06 Google Llc System and method for determining the direction of an actor
US9691153B1 (en) 2015-10-21 2017-06-27 Google Inc. System and method for using image data to determine a direction of an actor
US10025308B1 (en) 2016-02-19 2018-07-17 Google Llc System and method to obtain and use attribute data
CN106385624A (zh) * 2016-09-29 2017-02-08 乐视控股(北京)有限公司 视频播放方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003271084A (ja) * 2002-03-15 2003-09-25 Omron Corp 情報提供装置および情報提供方法
JP2005503726A (ja) * 2001-09-20 2005-02-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ユーザの注目に基づくリアルタイム・マルチメディア・コンテンツ送出の品質適合
JP2006065447A (ja) * 2004-08-25 2006-03-09 Nippon Telegr & Teleph Corp <Ntt> 識別器設定装置、注目度計測装置、識別器設定方法、注目度計測方法、およびプログラム
JP2006254274A (ja) * 2005-03-14 2006-09-21 Mitsubishi Precision Co Ltd 視聴層分析装置、販売戦略支援システム、広告支援システム及びtv装置
JP2008085685A (ja) * 2006-09-28 2008-04-10 Hitachi Ltd 小型カメラ搭載型の列車内情報表示システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3954484B2 (ja) * 2002-12-12 2007-08-08 株式会社東芝 画像処理装置およびプログラム
JP4450799B2 (ja) * 2006-03-10 2010-04-14 富士フイルム株式会社 対象画像検出装置の制御方法
JP5010905B2 (ja) * 2006-12-13 2012-08-29 パナソニック株式会社 顔認証装置
JP4518157B2 (ja) * 2008-01-31 2010-08-04 カシオ計算機株式会社 撮像装置及びそのプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005503726A (ja) * 2001-09-20 2005-02-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ユーザの注目に基づくリアルタイム・マルチメディア・コンテンツ送出の品質適合
JP2003271084A (ja) * 2002-03-15 2003-09-25 Omron Corp 情報提供装置および情報提供方法
JP2006065447A (ja) * 2004-08-25 2006-03-09 Nippon Telegr & Teleph Corp <Ntt> 識別器設定装置、注目度計測装置、識別器設定方法、注目度計測方法、およびプログラム
JP2006254274A (ja) * 2005-03-14 2006-09-21 Mitsubishi Precision Co Ltd 視聴層分析装置、販売戦略支援システム、広告支援システム及びtv装置
JP2008085685A (ja) * 2006-09-28 2008-04-10 Hitachi Ltd 小型カメラ搭載型の列車内情報表示システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7451673B2 (ja) 2016-01-06 2024-03-18 テレビジョン・インサイツ、インコーポレイテッド 視聴者エンゲージメントを評価するためのシステムおよび方法

Also Published As

Publication number Publication date
CN102783174A (zh) 2012-11-14
WO2011108183A1 (ja) 2011-09-09
JP5115763B2 (ja) 2013-01-09
HK1178354A1 (zh) 2013-09-06
US20120321197A1 (en) 2012-12-20
CN102783174B (zh) 2015-12-02
US8971635B2 (en) 2015-03-03

Similar Documents

Publication Publication Date Title
JP5224360B2 (ja) 電子広告装置、電子広告方法及びプログラム
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP4934861B2 (ja) 表示システム、表示方法、表示効果測定システム、及び、表示効果測定方法。
JP2008112401A (ja) 広告効果測定装置
JP2020078058A (ja) 画像処理装置、監視システム、画像処理方法、及びプログラム
JP2010113314A (ja) 電子広告システム、電子広告配信装置、及び電子広告配信方法並びにプログラム
JP2007286995A (ja) 注目度計測装置及び注目度計測システム
EP1986128A3 (en) Image processing apparatus, imaging apparatus, image processing method, and computer program
JP5115763B2 (ja) 画像処理装置、コンテンツ配信システム、画像処理方法、及びプログラム
WO2014199505A1 (ja) 映像監視システム、監視装置
WO2017018012A1 (ja) 情報処理システム、情報処理方法、および記録媒体
JP2007265125A (ja) コンテンツ表示装置
US20170055888A1 (en) Information processing device, information processing method, and program
JP5460793B2 (ja) 表示装置、表示方法、テレビジョン受信機及び表示制御装置
JP2013157984A (ja) Ui提供方法およびそれを適用した映像受信装置
JP5489197B2 (ja) 電子広告装置・方法及びプログラム
US9361705B2 (en) Methods and systems for measuring group behavior
JP2008146492A5 (ja)
WO2012054048A1 (en) Apparatus and method for evaluating an object
US20100150447A1 (en) Description based video searching system and method
EP3783561A1 (en) Information processing device, information processing system, information processing method, and program
TW201305967A (zh) 具學習力之視覺注意預測系統及其方法
JP2020095651A (ja) 生産性評価システム、生産性評価装置、生産性評価方法、及びプログラム
JP6198187B2 (ja) 信号処理装置及び信号処理方法
JP7329967B2 (ja) 画像処理装置、システム、画像処理装置の制御方法、及び、プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120515

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120918

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121002

R150 Certificate of patent or registration of utility model

Ref document number: 5115763

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151026

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350