JP2010026871A - 情報処理装置及び情報処理システム - Google Patents

情報処理装置及び情報処理システム Download PDF

Info

Publication number
JP2010026871A
JP2010026871A JP2008188915A JP2008188915A JP2010026871A JP 2010026871 A JP2010026871 A JP 2010026871A JP 2008188915 A JP2008188915 A JP 2008188915A JP 2008188915 A JP2008188915 A JP 2008188915A JP 2010026871 A JP2010026871 A JP 2010026871A
Authority
JP
Japan
Prior art keywords
viewer
content
information
interest
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008188915A
Other languages
English (en)
Inventor
Nobuki Takahashi
信樹 高橋
Shigeo Takahashi
茂雄 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008188915A priority Critical patent/JP2010026871A/ja
Publication of JP2010026871A publication Critical patent/JP2010026871A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】視聴者を所定の項目ごとに分類し、分類に応じた興味データを作成すること。
【解決手段】情報処理装置103は、コンテンツを視聴する視聴者が撮像された画像の入力を外部装置から通信回線を介して受け付ける入力部211と、視聴者が視聴しているコンテンツを識別するコンテンツ識別部213と、入力された画像と、視聴者データベース301に記録されている視聴者情報とに基づいて、視聴者を特定する視聴者特定部214と、特定された視聴者を分類する分類部215と、入力された視聴者画像と、識別されたコンテンツの情報とに基づいて、視聴者の興味の対象を解析する興味対象解析部216と、分類された視聴者の分類情報と、解析された視聴者の興味の対象とに基づいて、視聴者の分類に応じた興味データを作成するデータ作成部218と、を備える。
【選択図】図2

Description

本発明は、視聴者の興味の対象を解析する情報処理装置及び情報処理システムに関する。
従来、コンテンツを視聴する視聴者の興味領域を示す興味データを取得する視聴者情報測定システム及びこれを用いたマッチングシステムが知られている(例えば、下記特許文献1参照)。この視聴者情報測定システムは、コンテンツを視聴する視聴者の画像を撮像し、撮像した画像から視聴者の感情データ、視聴者の視線等を検出する。そして、これらの感情データ、視線の検出データを用いて、視聴者の興味データを作成するものである。
特開2007−36874号公報
しかしながら上述した特許文献1に記載の技術では、コンテンツを視聴する視聴者をある項目ごとに分類することができなかった。例えば、視聴者を所有物ごと分類することができなかった。そのため、コンテンツを配信する際に、視聴者が所有している所有物の広告コンテンツを配信することもあり、適切に視聴者の購買意欲を促進させるような広告コンテンツを配信することができなかった。
また、特許文献1に記載の技術では、コンテンツを視聴する複数の視聴者の興味データを作成することができる。しかし、視聴者を、通常の視聴者であるか、特定視聴者であるかを分類することができなかった。そのため、例えば、スポーツの解説者のような特定視聴者の興味データを作成し、当該データに基づいて、新たなコンテンツを作成することができなかった。
また、視聴者を所有物ごとに分類することができなかったため、所有物ごとに分類される視聴者のグループごとの興味データを作成することができなかった。
上記目的を達成するために、請求項1に係る発明は、コンテンツを視聴する視聴者が撮像された画像の入力を外部装置から通信回線を介して受け付ける入力手段と、前記視聴者が視聴しているコンテンツを識別するコンテンツ識別手段と、前記入力手段によって入力された画像と、視聴者データベースに記憶されている視聴者情報とに基づいて、前記視聴者を特定する視聴者特定手段と、前記視聴者特定手段によって特定された視聴者を分類する分類手段と、前記入力手段によって入力された視聴者の画像と、前記コンテンツ識別手段によって識別されたコンテンツの情報とに基づいて、前記視聴者の興味の対象を解析する興味対象解析手段と、前記分類手段よって分類された前記視聴者の分類情報と、前記興味対象解析手段によって解析された前記視聴者の興味の対象とに基づいて、前記視聴者の分類に応じた興味データを作成するデータ作成手段と、を備えることを特徴とする。
請求項2に係る発明は、請求項1に記載の発明において、前記視聴者の興味の対象に基づいて、前記コンテンツ(以下、「第1のコンテンツ」という)と異なる第2のコンテンツをコンテンツデータベースから検索する検索手段と、前記検索手段によって検索された第2のコンテンツを、前記第1のコンテンツを視聴している視聴者に配信する配信手段と、を備えたことを特徴とする。
請求項3に係る発明は、請求項2に記載の発明において、前記検索手段は、前記視聴者の興味の対象と前記分類情報とに基づいて、前記第2のコンテンツを検索することを特徴とする。
請求項4に係る発明は、請求項2または3に記載の発明において、前記第1のコンテンツ及び第2のコンテンツは画像を含み、前記コンテンツ識別手段によって識別される前記第1のコンテンツの画像中から所定の領域を特定する領域特定手段と、前記第2のコンテンツの画像を、前記領域特定手段によって特定された領域に合致するように前記第1のコンテンツの画像に合成して合成コンテンツを生成するコンテンツ編集手段と、を備え、前記配信手段は、前記合成コンテンツを配信することを特徴とする。
請求項5に係る発明は、請求項1に記載の発明において、前記データ生成手段は、前記分類手段によって特定視聴者に分類された視聴者の興味データを作成し、前記特定視聴者の興味データに基づいて、前記コンテンツを編集するコンテンツ編集手段と、前記コンテンツ編集手段によって編集されたコンテンツを、前記特定視聴者以外の視聴者に配信する配信手段を更に備えたことを特徴とする。
請求項6に係る発明は、コンテンツを視聴する視聴者を撮像するカメラと、前記カメラに通信回線を介して接続される情報処理装置とによって構成される情報処理システムにおいて、前記カメラは、前記視聴者を撮像する撮像手段と、前記撮像手段によって撮像された視聴者の画像を前記情報処理装置に送信する送信手段と、を備え、前記情報処理装置は、前記カメラから送信された前記視聴者の画像の入力を受け付ける入力手段と、前記視聴者が視聴しているコンテンツを識別するコンテンツ識別手段と、前記入力手段によって入力された視聴者の画像と、視聴者データベースに記憶されている視聴者情報とに基づいて、前記視聴者を特定する視聴者特定手段と、前記視聴者特定手段によって特定された視聴者を分類する分類手段と、前記入力手段によって入力された視聴者の画像と、前記コンテンツ識別手段によって識別されたコンテンツの情報とに基づいて、前記視聴者の興味の対象を解析する興味対象解析手段と、前記分類手段よって分類された前記視聴者の分類情報と、前記興味対象解析手段によって解析された前記視聴者の興味の対象とに基づいて、前記視聴者の分類に応じた興味データを作成するデータ作成手段と、を備えることを特徴とする。
請求項7に係る発明は、コンテンツを視聴する視聴者を撮像するカメラと、前記カメラに通信回線を介して接続される情報処理装置とによって構成される情報処理システムにおいて、前記カメラは、前記視聴者を撮像する撮像手段と、前記撮像手段によって撮像された視聴者の画像から前記視聴者を特定する視聴者特定手段と、前記視聴者特定手段によって特定された視聴者の特定情報と、撮像された前記視聴者の画像とを前記情報処理装置に送信する送信手段と、を備え、前記情報処理装置は、前記カメラから送信された特定情報及び前記視聴者の画像の入力を受け付ける入力手段と、前記視聴者が視聴しているコンテンツを識別するコンテンツ識別手段と、前記入力手段によって入力された特定情報によって特定される視聴者を分類する分類手段と、前記入力手段によって入力された前記視聴者の画像と、前記コンテンツ識別手段によって識別されたコンテンツの情報とに基づいて、前記視聴者の興味の対象を解析する興味対象解析手段と、前記分類手段よって分類された前記視聴者の分類情報と、前記興味対象解析手段によって解析された前記視聴者の興味の対象とに基づいて、前記視聴者の分類に応じた興味データを作成するデータ作成手段と、を備えることを特徴とする。
請求項8に係る発明は、請求項1〜7のいずれかに記載の発明において、前記興味対象解析手段は、入力された前記視聴者の画像から前記視聴者の視線を検出して視線検出情報を生成する視線検出手段を備え、前記視線情報と、前記コンテンツの情報とに基づいて、前記視聴者の興味の対象を解析することを特徴とする。
請求項9に係る発明は、請求項1〜7のいずれかに記載の発明において、前記興味対象解析手段は、入力された前記視聴者の画像から前記視聴者の表情を検出して表情検出情報を生成し、前記表情検出情報と、前記コンテンツの情報とに基づいて、前記視聴者の興味の対象を解析することを特徴とする。
本発明によれば、コンテンツを視聴する視聴者を、所定の項目ごとに分類することができる。さらに、視聴者の興味の対象を解析し、視聴者の興味データを作成することができる。これにより、視聴者を所有物で分類し、視聴者の興味データを作成することができるため、視聴者に合ったコンテンツを配信することができる。
また、視聴者を通常の視聴者あるいは特定視聴者に分類することができるため、スポーツの解説者のような特定視聴者の興味の対象を反映した興味データに基づく、新たなコンテンツを作成することができる。
さらに、視聴者を所有物で分類し、分類された視聴者のグループごとの興味データを自動で作成することができる。
(実施の形態1)
本発明の実施の形態1に係る情報処理装置及び情報処理システムについて説明する。図1は、実施の形態1に係る情報処理システムのシステム構成の一例を示す説明図である。図1において、情報処理システム100は、複数の視聴者端末101と、当該視聴者端末101とネットワーク102を介して接続された情報処理装置103とにより構成されている。
視聴者端末101は、通信機能を備えたパーソナルコンピュータ(以下、PCという。)やテレビなどである。さらに、視聴者端末101は、コンテンツを視聴する視聴者の画像を撮像するためのカメラ104を備えている。カメラ104は、視聴者端末101に接続されている。カメラ104によって撮像された画像は、視聴者端末101からネットワーク102を介して情報処理装置103に送信される。
次に、実施の形態1に係る情報処理装置の機能的構成について説明する。図2は、実施の形態1に係る情報処理装置の機能的構成の一例を示すブロック図である。なお、図2は、実施の形態1及び実施の形態2において共通である。
図2において、情報処理装置103は、CPU201と、ROM202と、RAM203と、ハードディスクドライブ(以下、「HDD」という)204と、表示装置205と、入力装置206と、通信部207と、により構成されている。なお、これらのCPU201と、ROM202と、RAM203と、HDD204と、表示装置205と、入力装置206と、通信部207とは、バス210を介して接続されている。
CPU201は、情報処理装置103の全体の制御を司る。CPU201の詳細については後述する。ROM202は、ブートプログラムなどのプログラムを記録している。RAM203は、CPU201のワークエリアとして使用される揮発性の記憶媒体である。ハードディスクドライブ(以下、「HDD」という)204は、CPU201の制御にしたがってデータを記録する不揮発性の記憶媒体である。HDD204は、変わりにCD−ROM、CD−R、CD−RW、DVD(Digital Versatile Disk)等の光ディスク、光磁気ディスク(MO)、半導体メモリを内蔵するメモリーカードなどの着脱可能な記憶媒体を用いてもよい。
表示装置205は、カーソル、アイコンあるいはツールボックスをはじめ、文書、画像、機能情報などのデータを表示する。この表示装置205は、たとえば、CRT、TFT液晶ディスプレイ、プラズマディスプレイなどを採用することができる。入力装置206は、キーボード及びマウスなどにより構成される。
通信部207は、通信回線を通じてインターネットなどのネットワーク102に接続され、このネットワーク102を介して他の装置(視聴者端末101)に接続される。通信部207は、入力部211と、配信部212とを備えている。また、通信部207は、所定の情報をネットワーク102を介して視聴者端末101に出力する出力部としての機能を備えている。これらの詳細については後述する。
次に、上述した視聴者端末101の機能的構成について説明する。図3は、視聴者端末101の機能的構成を示すブロック図である。図3において、視聴者端末は、CPU251と、ROM252と、RAM253と、HDD(ハードディスクドライブ)254と、ディスプレイ255と、I/F(インターフェース)256と、入力装置257と、を備えている。また、各構成部はバス260によってそれぞれ接続されている。
ここで、CPU251は、視聴者端末101の全体の制御を司る。ROM252は、ブートプログラムなどのプログラムを記録している。RAM253は、CPU251のワークエリアとして使用される揮発性の記憶媒体である。ハードディスクドライブ(HDD)254は、CPU251の制御にしたがってデータを記録する不揮発性の記憶媒体である。HDD254は、変わりにCD−ROM、CD−R、CD−RW、DVD(Digital Versatile Disk)等の光ディスク、光磁気ディスク(MO)、半導体メモリを内蔵するメモリーカードなどの着脱可能な記憶媒体を用いてもよい。
ディスプレイ255は、カーソル、アイコンあるいはツールボックスをはじめ、文書、画像、機能情報などのデータを表示する。このディスプレイ255は、たとえば、CRT、TFT液晶ディスプレイ、プラズマディスプレイなどを採用することができる。入力装置257は、キーボード及びマウスなどにより構成される。
I/F256は、通信回線を通じてインターネットなどのネットワーク102に接続され、このネットワーク102を介して他の装置(情報処理装置103)に接続される。
次に、実施の形態1に係る情報処理装置103のCPU201の機能的構成及び通信部207の機能的構成について説明する。図2−1に示すように、CPU201は、コンテンツ識別部213と、視聴者特定部214と、分類部215と、興味対象解析部216と、データ作成部218と、検索部219と、領域特定部220と、コンテンツ編集部221とにより構成されている。
入力部211は、カメラにより撮像された視聴者の画像(以下、「視聴者画像」という)の入力を視聴者端末101から通信回線を介して受け付ける。具体的には、視聴者端末101に取り付けられたカメラ104によって撮像された視聴者画像の入力を受け付ける。ここで、入力部211に入力される視聴者画像は静止画である。カメラ104は、撮像した視聴者の視聴者画像を所定の間隔で、視聴者端末101を介して出力する。視聴者端末101から出力された視聴者画像は、ネットワーク102を介して入力部211に入力される。
また、入力部211は、視聴者画像と共に視聴者端末101を識別する識別情報の入力も受け付ける。さらに、入力部211には、当該静止画が撮像された際に、視聴者端末101のディスプレイ255に表示されていた画像を特定するための情報が視聴者画像に関連付けられて入力される。画像を特定するための情報とは、例えば、コンテンツの開始後から計時された時間の情報(以下、「時間情報」という。)である。入力された画像、視聴者端末101の識別情報、及び時間情報はRAM203に記録される。
コンテンツ識別部213は、視聴者が視聴しているコンテンツを識別する。コンテンツは、情報処理装置103のHDD104に記録されている。また、コンテンツは、視聴者端末101側で視聴者からチャンネルの選択があった場合に、CPU201によって配信部212から配信される。チャンネルの選択情報は、視聴者端末101の識別情報などと共にRAM203に記録される。コンテンツ識別部213は、視聴者端末101の識別情報及びチャンネル選択情報により視聴者が視聴しているコンテンツを識別する。
視聴者特定部214は、入力部211によって入力された画像と、視聴者データベースに記録されている視聴者情報とに基づいて、視聴者を特定する。視聴者データベースはROM202あるいはHDD204などに記録されている。視聴者データベースとは、視聴者に関する情報(以下、「視聴者情報」という)を、視聴者ごとに関連付けてデータベース化した情報の集合である。視聴者情報とは、具体的には、例えば、視聴者のID情報、年齢、趣味、嗜好、生年月日、顔画像などの情報である。視聴者データベースは、これらの視聴者情報のうち、任意の視聴者情報がそれぞれ関連付けられて作成される。図4に視聴者データベースの一例を示す。図4の視聴者データベース301は、「視聴者のID」と、「視聴者の顔画像」と、「視聴者の所有物」と、その他の項目として「熟練視聴者である旨」とがそれぞれ関連付けられてデータベース化されている。
視聴者の特定方法は、例えば、入力部211に入力された視聴者画像から視聴者の顔領域を特定する。そして、特定された視聴者の顔画像と、視聴者データベース301に記録されている顔画像とを比較することにより視聴者の特定を行う。
また、視聴者の顔画像と類似する画像が視聴者データベース301に複数記録されているため、候補となる視聴者が複数いる場合には、視聴者の年齢、生年月日、その他の視聴者情報を併用して視聴者の特定を行う。
分類部215は、視聴者特定部214によって特定された視聴者を分類する。具体的には、視聴者を所定の項目別に分類する。所定の項目とは、例えば、性別、年代、趣味、所有物、興味のある分野、過去に視聴したコンテンツなどの項目である。分類部215は、視聴者をこれらの任意の項目ごと、あるいはこれらの項目を任意に組み合わせた項目ごとに分類する。分類部215は、視聴者データベース301の情報を参照して、視聴者を分類することができる。実施の形態1では、分類部215は、視聴者データベース301に基づいて、視聴者を所有物ごとに分類する。具体的には、例えば、視聴者特定部214によって視聴者が「A」であると特定された場合には、視聴者「A」を、視聴者データベース301に基づいて「カメラ」を所有する者、あるいはカメラの機種として「A1」を所有する者に分類する。
興味対象解析部216は、入力部211に入力された視聴者画像と、コンテンツ識別部213によって識別されたコンテンツの情報とに基づいて、視聴者の興味の対象を解析する。興味の対象の解析方法は、例えば、入力された視聴者画像から、視聴者の感情の状態を推定する。具体的には、視聴者が笑っている状態(笑顔)を推定する。感情の状態の推定は、公知の技術により行うことができるため、説明を省略する。また、推定する感情の状態は「笑顔」だけでなく、その他の感情の状態であっても良い。次に、興味対象解析部216は、入力部211に視聴者画像と共に入力された時間情報から、視聴者の笑顔が推定された画像が撮像された際に、視聴者端末101のディスプレイ255に表示されていた画像(以下、「表示画像」という。)を特定する。そして、興味対象解析部216は、特定された表示画像から視聴者の興味の対象を解析する。具体的には、例えば、興味対象解析部216は、視聴者画像から笑顔が検出された際の表示画像が野球であれば、視聴者の興味の対象は野球であると解析する。
また、興味対象解析部216は、配信する一つのコンテンツ(例えば、ドラマ)を通して、視聴者画像から特定の表情を検出し、当該検出結果に基づいて、視聴者の興味の対象を解析する。ここで、視聴者がコンテンツを視聴中にコンテンツ中の携帯電話を見たときに特定の表情が検出された場合を例として興味対象解析部216の興味対象解析手法について説明する。図5は、特定の表情の検出結果の一例を示す図である。図5では、視聴者の特定の表情が検出されたコンテンツの「シーン」と、携帯電話の「色」との関係を示している。なお、各項目の数値は、視聴者の特定の表情が検出された検出回数を示している。
図5において、「シーン」の項目の「電話」とは、例えば、コンテンツ中において、携帯電話により電話をかけたシーンを示しており、このシーンにおいて、視聴者の特定の表情が1回検出されたことを示している。この「電話」の検出回数が所定値を超えた場合に、興味対象解析部216は、視聴者は携帯電話の電話機能に興味があると解析することができる。同様に、「シーン」の項目の「写真撮影」は、コンテンツ中において、携帯電話により写真撮影を行っていたシーンを示している。この「写真撮影」の検出回数が所定値を超えれば、興味対象解析部216は、視聴者は携帯電話のカメラ機能に興味があると解析することができる。また、「色」の項目の「白」は、コンテンツ中において、「白」の携帯電話が表示された場面で、視聴者の特定の表情が検出されたことを示している。このように、興味対象解析部216は、コンテンツ中に携帯電話が登場した各シーンあるいは携帯電話の各色に対してそれぞれ視聴者の特定の表情が検出された検出回数を算出し、当該検出回数が所定値を超えた項目を視聴者の興味の対象と解析することができる。
また、興味対象解析部216は、入力された視聴者画像から視聴者の視線を検出して視線検出情報を生成する視線検出部217を備えている。興味対象解析部216は、視線検出部217によって生成された視線検出情報と、コンテンツの情報とに基づいて、視聴者の興味の対象を解析することもできる。視線検出情報とは、視聴者端末101のディスプレイ255上の視聴者の視線の位置(以下、「視線位置」という。)を特定するための情報であり、視線位置の情報と、視線位置が検出された時間情報とを含む情報である。視線検出方法に関しては、特開2007−36874号公報に開示されているため、説明を省略する。
また、興味対象解析部216は、視線検出情報と、コンテンツの情報とに基づいて、視聴者の興味の対象を解析する。具体的には、例えば、興味対象解析部216は、視聴者の視線が検出されたディスプレイ255上の位置に表示されている表示物を視聴者の興味の対象とする。表示物の特定は、視聴者画像と共に入力された時間情報を用いることにより特定することができる。具体的には、興味対象解析部216は、時間情報により、視線が検出された際の表示画像を特定する。そして、興味対称解析部216は、特定された表示画像上の視線が検出された位置を特定する。これにより、興味対象解析部216は、表示物を特定することができる。
具体的には、例えば、視聴者が、人物と花とが表示されたコンテンツを視聴している場合に、視聴者の視線が花の位置に検出されれば、興味対象解析部216は、視聴者の興味の対象は花であると解析する。
データ作成部218は、分類部215よって分類された視聴者の分類情報と、興味対象解析部216によって解析された視聴者の興味の対象とに基づいて、視聴者の分類に応じた興味データを作成する。例えば、図4の例において、視聴者「A」は、カメラA1を所有していると分類される。そして、興味対象解析部216によって「A」の興味の対象が花であると解析された場合には、「カメラA1の所有者は、花に興味を持っている」というデータを作成する。
さらに、データ作成部218は、視聴者の興味の対象に基づいて、視聴者ごとに、図6に示すような、視聴者個人の興味の対象に関する第1の興味データ401を作成する。図6の例において、第1の興味データとは、視聴者の「所有物」と興味の対象とを示すデータである。具体的には、例えば、視聴者「A」は、「カメラA1」を所有する者に分類されており、興味の対象が「Nikon」、「携帯電話(カメラ機能)」「花」、「風景」であることを示している。また、各項目の下の数値は、興味の度合いを数値により表したものである。第1の興味データ401は、HDD204に記録される。
検索部219は、視聴者の興味の対象に基づいて、配信されている第1のコンテンツ(以下、単に「コンテンツ」という。)と異なる第2のコンテンツをコンテンツデータベースから検索する。第2のコンテンツ(以下、「広告コンテンツ」という。)とは、具体的には、例えば、視聴者端末101に配信されているコンテンツ中に配信する広告コンテンツである。広告コンテンツは、コンテンツ配信中のディスプレイ255に、当該コンテンツに重ねて表示される広告画像である。
コンテンツデータベースとは、具体的には、広告社と、当該広告社の広告コンテンツとを関連付けてデータベース化した情報の集合である。コンテンツデータベースは、図7に具体例を示すように、広告社と、当該広告社の製品名と、当該製品の画像とを関連付けてデータベース化した情報の集合である。コンテンツデータベース501は、ROM202あるいはHDD204などに記録されている。
また、検索部219は、視聴者の興味の対象と分類情報とに基づいて、第2のコンテンツ(広告コンテンツ)を検索する。視聴者の興味の対象は、例えば、図6に示される第1の興味データ401によって示されるものである。CPU201は、図6の第1の興味データ401の項目を興味の対象とする。さらに、視聴者が視聴中のコンテンツから解析された興味の対象も用いる。分類情報とは、分類部215によって分類された、例えば、「A1の所有者は、花に興味を持っている」のような情報である。検索部219は、例えば、興味対象解析部216によって、視聴者が視聴中のコンテンツから「Nikon」に興味を持っていると解析され、「カメラA1の所有者であり、花に興味を持っている」と分類されていれば、「Nikon」の製品であり、マクロレンズのような花を撮影するために用いられるカメラの関連製品、あるいは「Nikon」の製品のカメラA1以外のカメラを検索する。
配信部212は、検索部219によって検索された第2のコンテンツ(広告コンテンツ)を、コンテンツを視聴している視聴者に配信する。配信部212は、広告コンテンツを配信中のコンテンツに重ねて配信する。広告コンテンツを、配信中のコンテンツに重ねて配信する場合は、後述するように、視聴者の視線が検出された広告主の広告の位置に、当該広告主の製品の画像を合成して配信する。
領域特定部220は、コンテンツ識別部213によって識別されるコンテンツの画像の中から所定の領域を特定する。配信されるコンテンツ中には、各広告会社が広告の画像を貼ることができる広告領域が予め定まっており、この広告領域が所定の領域となる。図8は、所定の領域について示す説明図である。図8の例おいて、点線の枠に囲まれる領域が、「Nikon」の画像が貼られた所定の領域601である。領域特定部220は、「Nikon」の画像上に視聴者の視線が検出された場合には、「Nikon」の画像が貼られている広告領域を所定の領域601として特定する。
コンテンツ編集部221は、第2のコンテンツ(広告コンテンツ)の画像を、領域特定部220によって特定された領域(所定の領域601)に合致するようにコンテンツの画像に合成して合成コンテンツを生成する。本実施の形態1において、第2のコンテンツ(広告コンテンツ)とは、具体的には、例えば、図7に示した製品の画像である。コンテンツ編集部221は、検索された製品の画像の中から所定の領域601に合成する製品の画像を一つ特定する。次に、コンテンツ編集部221は、特定された画像を任意の方向に拡大、縮小して、所定の領域601に合致する大きさに編集する。そして、コンテンツ編集部221は、編集した広告コンテンツを所定の領域601に合成することにより合成コンテンツを生成する。図9は、生成された合成コンテンツの表示例を示す説明図である。図9において、図8に示した所定の領域601には、広告コンテンツが合成されている。この合成コンテンツは、配信部212によってネットワーク102を介して視聴者端末101に配信される。
(情報処理装置のCPUの処理手順)
次に、実施の形態1にかかる情報処理装置103のCPU201により実行される処理手順について説明する。図10は、実施の形態1にかかる情報処理装置103のCPU201により実行される処理手順の一例について示すフローチャートである。図10に示すフローチャートのプログラムは、HDD204に記録されている。なお、本フローチャートでは、視聴者に配信されるコンテンツとして野球の試合のコンテンツが配信されるものとする。また、視聴者の視線が、「Nikon」の広告領域に検出されるものとして説明を行う。さらに、本フローチャートにおいて、図6に示した興味データが作成されているものとして説明を行う。図10のフローチャートにおいて、情報処理装置103と視聴者端末101とがネットワーク102を介して接続されると本処理手順が開始される。
ステップS801において、情報処理装置103のCPU201は、入力部211に視聴者端末101からネットワーク102を介して視聴者画像が入力されるのを待つ。そして、CPU201が、視聴者画像が入力されたと判断した場合には、ステップS802に進む。
ステップS802において、情報処理装置103のCPU201は、入力された視聴者画像から視聴者を特定できたか否かを判断する。CPU201が、視聴者を特定できないと判断した場合には、ステップS803に進む。一方、CPU201が、視聴者を特定できたと判断した場合には、ステップS804に進む。
ステップS803において、情報処理装置103のCPU201は、視聴者情報を作成する。視聴者情報の作成の際には、CPU201は、視聴者が所定の項目に対して入力可能な視聴者情報入力リストを視聴者端末101に送信する。所定の項目とは、具体的には、例えば、視聴者の氏名、年齢、趣味、嗜好、生年月日などの項目である。視聴者情報入力リストは視聴者端末101のディスプレイ255に表示される。視聴者は、ディスプレイ255に表示された視聴者情報入力リストを参照しながら、所定の項目に対して入力装置257により入力することができる。そして、入力部211は、視聴者端末101から返信された視聴者情報入力リストの入力を受け付ける。そして、CPU201は、視聴者情報入力リストに基づいて視聴者情報を作成する。作成された視聴者情報は、HDD204などに視聴者データベース301として記録される。
ステップS804において、検索部219は、視聴者に配信するコンテンツ候補を検索する。検索部219は、視聴者データベース301を参照して、視聴者の興味の対象に関係するコンテンツを検索する。
ステップS805において、情報処理装置103のCPU201は、検索したコンテンツのリストデータを、ネットワーク102を介して視聴者端末101に送信する。視聴者端末101は、コンテンツのリストデータを受信すると、ディスプレイ255にコンテンツリストを表示させる。視聴者は、ディスプレイ255に表示されたコンテンツリストの中から、入力装置257により視聴するコンテンツのチャンネルを入力することができる。
ステップS806において、情報処理装置103のCPU201は、入力部211にコンテンツのチャンネルが入力されたか否かを判断する。具体的には、視聴者端末101で視聴者により入力されたチャンネルの情報を入力部211が入力を受け付けた場合に、CPU201は、コンテンツのチャンネルが入力されたと判断する。CPU201が、コンテンツのチャンネルが入力されていないと判断した場合には、ステップS807に進む。一方、CPU201が、コンテンツのチャンネルが入力されたと判断した場合にはステップ810に進む。
ステップS807において、情報処理装置103のCPU201は、コンテンツリストデータを配信してから所定時間が経過したか否かを判断する。CPU201が、所定時間が経過していないと判断した場合には、ステップS812に進む。一方、CPU201が、所定時間が経過したと判断した場合には、ステップS808に進む。
ステップS808において、情報処理装置103のCPU201は、視聴者端末101にエラー表示画面のコンテンツを配信する。エラー表示画面のコンテンツとは、所定時間内にコンテンツの配信ができなかったため通信を切断する旨を視聴者に確認させるための表示である。
ステップS809において、情報処理装置103のCPU201は、視聴者端末101との通信を切断する。これにより、一連の処理を終了する。
ステップS810において、情報処理装置101のCPU201は、配信部212からネットワーク102を介して視聴者端末101へのコンテンツの配信を開始させる。上述のように情報処理装置103は、野球の試合のコンテンツの配信を開始する。
ステップS811において、情報処理装置103のCPU201は、視聴者が視聴しているコンテンツが終了したか否かを判断する。CPU201が、視聴者が視聴しているコンテンツが終了したと判断した場合には、ステップS812に進む。一方、CPU201が、視聴者が視聴しているコンテンツが終了していないと判断した場合には、ステップS813に進む。
ステップS812において、情報処理装置103のCPU201は、視聴者端末101との通信を終了するか否かを判断する。具体的には、例えば、情報処理装置103と視聴者端末101との通信が切断された場合、視聴者端末101から通信を終了する旨の入力情報を受け付けた場合などに通信を終了すると判断する。CPU201が、視聴者端末101との通信を終了しないと判断した場合には、ステップS806に戻る。一方、CPU201が、視聴者端末101との通信を終了すると判断した場合には、視聴者端末101との回線の接続を切断して、一連の処理を終了する。
ステップS813において、情報処理装置103のCPU201は、入力部211にコンテンツを視聴する視聴者画像が入力されたか否かを判断する。ここで、カメラ104からは、撮像した視聴者画像(静止画)を、予め定められた所定の間隔で送信するものであり、入力部211は、送信された画像の入力を受け付ける。CPU201が、視聴者画像が入力されたと判断した場合には、ステップS814に進む。一方、CPU201が、視聴者画像が入力されてないと判断した場合には、ステップS811に戻る。
ステップS814において、視聴者特定部214は、入力された視聴者画像から視聴者を特定する。本ステップでは、特定した視聴者画像から視聴者の表情、視線を検出するために特定を行う。
ステップS815において、分類部215は、視聴者を所定の項目ごとに分類する。具体的には、分類部215は、視聴者データベース301に基づいて、視聴者を所有物ごとに分類する。より具体的には、例えば、視聴者特定部214によって視聴者が「A」であると特定された場合には、視聴者「A」を、視聴者データベース301に基づいて「カメラ」を所有する者、あるいはカメラの機種として「A1」を所有する者に分類する。
ステップS816において、情報処理装置103のCPU201は、入力部211に入力された画像から視聴者の特定の表情が検出されたか否かを判断する。CPU201が、視聴者の特定の表情が検出されたと判断した場合には、ステップS817に進む。一方、CPU201が、特定の表情が検出されていないと判断した場合には、ステップS818に進む。
ステップS817において、情報処理装置103のCPU201は、視聴者の表情検出情報を生成する。表情検出情報とは、視聴者画像から推定された感情の状態と、視聴者画像の時間情報とが関連付けられた情報である。
ステップS818において、情報処理装置103のCPU201は、入力部211に入力された画像から視聴者の視線が検出されたか否かを判断する。CPU201が、視聴者の視線が検出されたと判断した場合には、ステップS819に進む。一方、CPU201が、視聴者の視線が検出されていないと判断した場合には、ステップS820に進む。
ステップS819において、情報処理装置103のCPU201は、視線検出情報を生成する。視線検出情報とは、視聴者端末101の表示画面上の視聴者の視線の位置(以下、「視線位置」という。)を特定するための情報であり、視線位置の情報と、視線位置が検出された時間情報とを含む情報である。
ステップS820において、情報処理装置103のCPU201は、表情検出情報あるいは視線検出情報のうち少なくともいずれか一方が生成されたか否かを判断する。CPU201が、表情検出情報及び視線検出情報のいずれも生成されていないと判断した場合には、ステップS811に戻る。一方、CPU201が、表情検出情報あるいは視線検出情報のうち少なくともいずれか一方が生成されたと判断した場合には、ステップ821に進む。
ステップS821において、情報処理装置103のCPU201は、検出された視線は、分類情報に関連する所定の広告であるか否かを判断する。所定の広告とは、例えば、野球場のフェンスに張られている広告などである。本フローチャートにおいて、視聴者は「カメラを所有している」と分類されており、視聴者の視線はカメラメーカーである「Nikon」の広告領域上に検出されているため、CPU201は、所定の広告であると判断する。CPU201が、検出された視線が所定の広告でないと判断した場合には、ステップS823に進む。ここで、ステップS821において、視線検出情報が生成されていない場合には、検出された視線が所定の広告でないと判断され、ステップS823に進む。一方、検出された視線が所定の広告であると判断された場合には、ステップS822に進む。
ステップS822において、情報処理装置103のCPU201は、視線が検出された所定の広告の広告主を特定する。具体的には、図7の例においては、広告主は「Nikon」であると特定される。
ステップS823において、興味対象解析部216は、視聴者の興味の対象を解析する。具体的には、視聴者は、野球のコンテンツを視聴しているため、興味の対象が野球であると解析される。また、上述したように視聴者の視線が、図8に示したように「Nikon」の広告領域上に特定されていれば、興味の対象は「Nikon」であると解析される。また、興味対象解析部216は、視線検出情報に基づいて、図5に示したような特定の表情の検出結果(以下、「特定表情検出結果」という)を、例えばシーン毎に作成することにより、視聴者の興味の対象を解析する。興味対称解析部216は、例えば、野球のコンテンツにおいて、ディスプレイに野球選手Aがアップで表示された際に視聴者の特定の表情が検出された場合には、図5に示した特定表情検出結果に「野球選手A」の項目を作成し、検出回数として数値1を付与する。また、興味対象解析部216は、野球のコンテンツの途中に配信されるCMにおいて、視聴者の特定の表情が検出された場合には、表情検出情報に基づいて、CMに関する視聴者の興味の対象を解析することができる。具体的には、例えば、野球のコンテンツの間のCMにおいて、「Nikon」のCMが配信され、視聴者の特定の表情が検出されれば、興味対象解析部216は、図5に示した特定表情検出結果に、「Nikon」の項目を作成し、検出回数として数値1を付与する。さらに、当該CMにおいて、「女優M」が、カメラにより「スポーツ」を撮影しているシーンの時に視聴者の特定の表情が検出されれば、興味対象解析部216は、図5に示した特定表情の検出結果に「女優M」及び「スポーツ」の項目を作成し、検出回数として数値1を付与する。このように興味対象解析部216は、一つのコンテンツを配信中に視聴者の特定の表情を検出し、各項目に対して検出回数の数値の付与及び更新をしていく。そして、興味対象解析部216は、検出回数が所定値を超えた項目を視聴者の興味の対象であると解析する。
ステップS824において、データ作成部218は、視聴者の第1の興味データを作成する。具体的には、視聴者は野球のコンテンツを視聴しているため、データ作成部218は、図6に示した第1の興味データの「野球」の項目の数値を更新する。さらに、データ作成部218は、「その他」のカテゴリーに、「Nikon」、「カメラ」の項目を追加し、数値を付与する。さらに、図5に示した特定表情検出結果において、コンテンツ配信中にある項目の検出回数が所定値を超えた場合には、第1の興味データ401にその項目を追加し、数値を付与する。具体的には、例えば、「女優M」の検出回数が所定値を超えた場合には、「女優M」の項目を追加し、数値を付与する。
ステップS825において、CPU201は、広告主が特定されているか否かを判断する。CPU201が、広告主が特定されていると判断した場合には、ステップS826に進む。一方、CPU201が、広告主が特定されていないと判断した場合には、ステップS811に戻る。
ステップS826において、情報処理装置103のCPU201は、コンテンツデータベース501の中から、視聴者の分類情報及び第1の興味データに基づいて特定された広告主の製品を検索する。例えば、視聴者は、「カメラを所有している」と分類されており、図4の第1の興味データにより花に興味を持っているため、カメラによって花を撮影するための、「Nikon」の製品であるマクロレンズが、図7のコンテンツデータベース501から検索される。また、野球のコンテンツ配信中に、例えば、図5に示した項目「スポーツ」の数値が所定の値を超えた場合には、例えば、カメラによってスポーツを撮影するための、「Nikon」の製品である望遠レンズが、図5のコンテンツデータベース501から検索される。
ステップS827において、情報処理装置103のCPU201は、検索された製品の中から視聴者に配信するコンテンツの製品を決定する。なお、検索された製品が複数ある場合には、第1の興味データに示される項目の数値の大きい項目と関連する製品を優先して決定する。
ステップS828において、情報処理装置103のCPU201は、コンテンツ中の広告主の広告領域を特定する。この広告領域とされる領域は、予め定められている。また、各広告領域に対しては、その領域内に広告を貼ることができる広告主が定められている。そのため、ユーザの視線がその広告領域内に検出されれば、CPU201は、その広告領域を特定することにより、ユーザが見ていた広告主を特定することができる。具体的には、例えば、図8に示した点線の枠によって囲まれる領域内に視聴者の視線が検出されれば、CPU201は、「Nikon」の広告領域(所定の領域601)であると特定する。
ステップS829において、情報処理装置103のCPU201は、ステップS827で決定された製品の画像を、ステップS828で特定された「Nikon」の画像が貼られた領域に合成及び挿入を行う。広告コンテンツは、配信中のコンテンツの、視聴者の視線が検出された広告主の広告の位置に、当該広告主の製品の画像を合成して配信する。具体的には、図7に示すような編集されたコンテンツが視聴者端末101に配信される。そして、ステップS811に戻る。また、情報処理装置103のCPU201は、ステップS827で決定された製品の画像を、広告コンテンツを貼るための領域として、予め定められている領域に広告コンテンツを貼り付けることとしてもよい。予め定められた場所は、例えば、画面の左下、右下などである。
以上説明したように、実施の形態1の情報処理装置によれば、コンテンツを視聴する視聴者画像から、視聴者を特定し、当該視聴者を所有物ごとに分類することができる。さらに、コンテンツを視聴する視聴者の画像と、配信しているコンテンツの識別情報から、視聴者の興味の対象がコンテンツのどの部分であるかを解析することができる。そして、視聴者を分類した分類情報と、視聴者の興味の対象に基づいて、視聴者の興味データを作成することができる。
また、情報処理装置によれば、視聴者の興味の対象に基づいて、視聴者が視聴している第1のコンテンツとは異なる第2のコンテンツ検索し、配信することができる。これにより、視聴者の興味に合致した第2のコンテンツを配信することができる。
また、情報処理装置によれば、視聴者の興味の対象と、視聴者の所有物による分類情報に基づいて、第2のコンテンツを検索し、配信することができる。これにより、視聴者の購買意欲を促進するようなコンテンツを配信することができる。
また、情報処理装置によれば、第1のコンテンツの画像の中から所定の領域を特定し、第2のコンテンツの画像を、特定した所定の領域に合致するように第1のコンテンツを編集して合成することができる。これにより、視聴者は、第1のコンテンツを視聴しながら、自身が興味のある製品情報を得ることができる。
また、情報処理装置によれば、入力された視聴者の画像から視聴者の視線を検出して視線検出情報を生成し、視線検出情報と、コンテンツの情報とに基づいて、視聴者の興味の対象を解析することができる。これにより、コンテンツを視聴する視聴者の興味の対象を自動的に解析することができる。
また、情報処理装置によれば、入力された視聴者の画像から視聴者の表情を検出して表情検出情報を生成し、表情検出情報と、コンテンツの情報とに基づいて、視聴者の興味の対象を解析することができる。これにより、コンテンツを視聴する視聴者の興味の対象を自動的に解析することができる。
(変形例)
上述した実施の形態1において、視聴者特定部214は、画像の撮像と共に視聴者の声を録音して解析し、声の解析情報により視聴者を特定することとしても良い。
また、興味対象解析部216は、視聴者の感情の状態のみを取得し、視聴者の興味の対象を解析したが、視聴者の感情の度合いの情報を取得し、興味の対象に反映させることとしても良い。感情の度合いの情報の取得方法としては、例えば、視聴者端末101を操作する操作部材に、視聴者の発汗の度合いを検出する発汗センサを設け、当該発汗センサにより、感情の度合いを推定する。
また、検索部219は、例えば、視聴者の興味の対象が「野球」である場合には、野球の商品に関する広告コンテンツ、あるいは野球選手が出演している広告コンテンツなどをコンテンツデータベース501から検索することもできる。また、検索部219は、興味対象解析部216によってコンテンツ中に表示される広告社に興味を持っていると解析された場合には、当該広告社の商品の広告コンテンツを検索することもできる。さらに、コンテンツ配信中に図5に示したある項目の検出回数が所定値を超えた場合には、検索部219は、当該項目に関連する広告コンテンツを検索することもできる。具体的には、例えば、検索部219は、項目「女優M」の検出回数が所定値を超えた場合には、「女優M」が出演している広告コンテンツなどをコンテンツデータベース501から検索することもできる。このとき、配信部207は、コンテンツ間のCMとして、検索された、「女優M」が出演している広告コンテンツを配信することができる。
(実施の形態2)
次に、実施の形態2に係る情報処理装置及び情報処理システムについて説明する。実施の形態2において、情報処理装置103の機能的構成及び情報処理システム100のシステム構成については、実施の形態1と同様のため図示を省略する。また、情報処理装置103の機能的構成の説明については、実施の形態1と重複する部分については説明を省略し、実施の形態1と異なる部分について以下に説明する。
データ作成部218は、分類部215によって熟練視聴者に分類された視聴者の興味データ(以下、「第2の興味データ」という)を作成する。熟練視聴者とは、具体的には、例えば、スポーツ中継の解説者あるいは、解説者に順ずる知識を有する者などである。第2の興味データとは、実施の形態2においては、表示画像上の、特定視聴者が注視する位置を示す情報である。第2の興味データは、HDD204に記録され、後述するように、コンテンツの編集に用いられる。また、第2の興味データは、第1の興味データとは、別々に記録される。
ここで、熟練視聴者の分類方法について説明する。分類部215は、図4に示した第1の興味データ401の「熟練度」の項目を参照して、視聴者を熟練視聴者に分類する。例えば、分類部215は、配信されるコンテンツの「熟練度」の値が所定の値よりも高い視聴者を熟練視聴者に分類する。
コンテンツ編集部221は、熟練視聴者の第2の興味データに基づいて、コンテンツを編集する。具体的には、例えば、コンテンツの表示画像の、熟練視聴者が注視していた位置に、点あるいは枠などを合成することによりコンテンツを編集する。コンテンツ編集部221は、コンテンツ全体を通して熟練視聴者の注視点を合成して編集する。また、コンテンツ編集部221は、例えば、リプレイ映像のようにコンテンツの一部分のみの編集も行う。
これにより、コンテンツ全体を通して、視聴者の注視点が合成されたコンテンツを配信可能となる。また、コンテンツの一部のみを編集すれば、リプレイ映像を配信する際に、熟練視聴者の注視点が合成されたリプレイ映像のコンテンツを配信することができる。編集されたコンテンツは、HDD204に記録される。
配信部212は、コンテンツ編集部221によって編集されたコンテンツを、熟練視聴者以外の視聴者に配信する。配信部212は、例えば、スポーツのコンテンツの配信中に、熟練視聴者の視線検出情報が反映された編集コンテンツ(例えば、リプレイ映像)を、熟練視聴者以外の視聴者に配信することができる。また、熟練視聴者の注視点を反映して新たに作成した編集コンテンツを視聴者のチャンネルの選択に応じて配信する。
(情報処理装置のCPUの情報処理手順)
次に、実施の形態2に係る情報処理装置103のCPU201により実行される情報処理手順の一例について説明する。図11は、実施の形態2に係る情報処理装置103のCPU201により実行される情報処理手順の一例について示すフローチャートである。図11に示すフローチャートのプログラムは、HDD204に記録されている。図11のフローチャートにおいて、情報処理装置103と視聴者端末101とがネットワーク102を介して接続されると本処理手順が開始される。
ステップS901において、情報処理装置103のCPU201は、入力部211に視聴者端末101からネットワーク102を介して視聴者画像が入力されるのを待つ。そして、CPU201が、視聴者画像が入力されたと判断した場合には、ステップS902に進む。
ステップS902において、情報処理装置103のCPU201は、入力された視聴者画像から視聴者を特定できたか否かを判断する。CPU201が、視聴者を特定できないと判断した場合にはステップS903に進む。一方、CPU201が、視聴者を特定できたと判断した場合には、ステップS904に進む。
ステップS903において、情報処理装置103のCPU201は、視聴者情報を作成する。視聴者情報の作成の際には、CPU201は、視聴者が所定の項目に対して入力可能なリストを視聴者端末101に送信する。所定の項目とは、具体的には、例えば、視聴者の氏名、年齢、趣味、嗜好、生年月日などの項目である。視聴者情報入力リストは視聴者端末のディスプレイに表示される。視聴者は、ディスプレイに表示された視聴者情報入力リストを参照しながら、所定の項目に対して入力装置により入力することができる。そして、入力部211は、視聴者端末101から返信されたリストの入力を受け付ける。そして、CPU201は、当該リストに基づいて視聴者情報を作成する。作成された視聴者情報は、HDD204などに視聴者データベース301として記録される。
ステップS904において、検索部219は、視聴者に配信するコンテンツ候補を検索する。検索部219は、視聴者データベース301を参照して、視聴者の興味の対象に関係するコンテンツを検索する。また、視聴者から配信するコンテンツに関して入力があった場合には、その入力情報に関係するコンテンツを検索する。
ステップS905において、情報処理装置103のCPU201は、検索したコンテンツのリストデータを、ネットワーク102を介して視聴者端末101に送信する。視聴者端末101は、コンテンツのリストデータを受信すると、当該視聴者端末101のディスプレイ255にコンテンツリストを表示させる。視聴者は、視聴者端末101のディスプレイ255に表示されたコンテンツリストの中から、入力装置により視聴するコンテンツのチャンネルを入力することができる。
ステップS906において、情報処理装置103のCPU201は、入力部211にコンテンツのチャンネルが入力されたか否かを判断する。具体的には、視聴者端末101で視聴者により入力されたチャンネル情報を入力部211が入力を受け付けた場合に、CPU201は、コンテンツのチャンネルが入力されたと判断する。CPU201が、コンテンツのチャンネルが入力されていないと判断した場合には、ステップS907に進む。一方、CPU201が、コンテンツのチャンネルが入力されたと判断した場合にはステップ910に進む。
ステップS907において、情報処理装置のCPU201は、コンテンツリストデータを配信してから所定時間が経過したか否かを判断する。CPU201が、所定時間が経過していないと判断した場合には、ステップS914に進む。一方、CPU201が、所定時間が経過したと判断した場合には、ステップS908に進む。
ステップS908において、情報処理装置のCPU201は、視聴者端末101にエラー表示画面のコンテンツを配信する。エラー表示画面のコンテンツとは、所定時間内にコンテンツの配信ができなかったため通信を切断する旨を視聴者に確認させるための表示である。
ステップS909において、情報処理装置のCPU201は、視聴者端末103との通信を切断する。これにより、一連の処理を終了する。
ステップS910において、情報処理装置103のCPU201は、視聴者により入力されたコンテンツは過去に編集されたコンテンツ(以下、「編集コンテンツ」という。)であるか否かを判断する。編集コンテンツとは、具体的には、例えば、熟練視聴者の興味データが反映されたコンテンツである。CPU201が、視聴者により入力されたコンテンツが編集コンテンツであると判断した場合には、ステップS911に進む。一方、CPU201が、視聴者により入力されたコンテンツが編集コンテンツでないと判断した場合には、ステップS912に進む。
ステップS911において、情報処理装置103のCPU201は、配信部212からネットワーク102を介して視聴者端末101に編集コンテンツの配信を開始する。そして、ステップS913に進む。
ステップS912において、情報処理装置103のCPU201は、配信部212からネットワーク102を介して視聴者端末101に通常のコンテンツの配信を開始する。通常のコンテンツとは、熟練視聴者の興味データが反映されていないコンテンツである。
ステップS913において、情報処理装置103のCPU201は、視聴者端末101に配信しているコンテンツが終了したか否かを判断する。CPU201が、コンテンツが終了したと判断した場合には、ステップS914に進む。一方、CPU201が、コンテンツが終了していないと判断した場合には、ステップS915に戻る。
ステップS914において、情報処理装置103のCPU201は、視聴者端末101との通信を終了するか否かを判断する。具体的には、例えば、CPU201は、視聴者端末101との通信が切断された場合、視聴者端末101から通信を終了する旨の入力情報を受け付けた場合などに通信を終了すると判断する。CPU201が、視聴者端末101との通信を終了しないと判断した場合には、ステップS906に進む。一方、CPU201が、視聴者端末101との通信を終了すると判断した場合には、視聴者端末101との回線の接続を切断して、一連の処理を終了する。
ステップS915において、情報処理装置103のCPU201は、入力部211に視聴者画像が入力されたか否かを判断する。CPU201が、視聴者画像が入力されたと判断した場合には、ステップS916に進む。一方、CPU201が、視聴者画像が入力されていないと判断した場合には、ステップS913に戻る。
ステップS916において、視聴者特定部214は、入力された視聴者画像から視聴者を特定する。本ステップでは、特定した視聴者画像から視聴者の表情、視線を検出するために特定を行う。
ステップS917において、分類部215は、視聴者を分類する。本ステップは、分類部215は、視聴者を通常視聴者あるいは熟練視聴者に分類する。分類部215は、図4に示した第1の興味データ401の「熟練度」の項目を参照して、視聴者を熟練視聴者に分類する。例えば、分類部215は、配信されるコンテンツの「熟練度」の値が所定の値よりも高い視聴者を熟練視聴者に分類する。
ステップS918において、情報処理装置103のCPU201は、視聴者は熟練視聴者であるか否かを判断する。CPU201が、熟練視聴者でないと判断した場合には、ステップS913に進む。一方、CPU201が、熟練視聴者であると判断した場合には、ステップS919に進む。
ステップS919において、情報処理装置103のCPU201は、入力部211に入力された画像から熟練視聴者の特定の表情が検出されたか否かを判断する。CPU201が、熟練視聴者の特定の表情が検出されたと判断した場合には、ステップS920に進む。一方、CPU201が、特定の表情が検出されていないと判断した場合には、ステップS921に進む。
ステップS920において、情報処理装置103のCPU201は、熟練視聴者の表情検出情報を生成する。表情検出情報とは、熟練視聴者画像から推定された感情の状態と、視聴者画像の時間情報とが関連付けられた情報である。
ステップS921において、情報処理装置103のCPU201は、入力部211に入力された画像から熟練視聴者の視線が検出されたか否かを判断する。CPU201が、熟練視聴者の視線が検出されたと判断した場合には、ステップS922に進む。一方、CPU201が、熟練視聴者の視線を検出されていないと判断した場合には、ステップS923に進む。
ステップS922において、情報処理装置103のCPU201は、熟練視聴者の視線検出情報を生成する。視線検出情報とは、視聴者端末101の表示画面上の視聴者の視線の位置(以下、「視線位置」という。)を特定するための情報であり、視線位置の情報と、視線位置が検出された時間情報とを含む情報である。
ステップS923において、情報処理装置103のCPU201は、表情検出情報及び視線検出情報のうち少なくともいずれか一方が生成されたか否かを判断する。CPU201が、表情検出情報及び視線検出情報のいずれも生成されていないと判断した場合には、ステップS913に戻る。一方、情報処理装置103のCPU201が、表情検出情報あるいは視線検出情報のうち少なくともいずれか一方が生成されたと判断した場合には、ステップ924に進む。
ステップS924において、興味対象解析部216は、熟練視聴者の興味の対象を解析する。具体的には、興味対象解析部216は、視線検出情報に基づいて、熟練視聴者が注視していたディスプレイ255上の位置(以下、「注視点」という)を解析する。また、興味対象解析部216は、表情検出情報に基づいて、視聴者の特定の表情が検出された時間を特定する。興味対象解析部216は、特定した時間帯に熟練視聴者に配信されていたコンテンツを熟練視聴者の興味の対象と解析する。図12は、熟練視聴者の興味の対象について説明する図である。図12は、コンテンツの開始から終了までを時間軸のみで表している。また、時間軸上に示した区間「A」、「B」及び「C」は、それぞれ熟練視聴者の特定の表情が検出された時間を示している。つまり、興味対象解析部216は、区間「A」、「B」及び「C」の時間帯を熟練視聴者の興味の対象と解析する。
ステップS925において、データ作成部218は、熟練視聴者の第2の興味データを作成する。具体的には、データ作成部218は、解析した注視点の位置に基づいて、表示画像上の注視点を特定するための情報を作成する。また、データ作成部218は、表情検出情報に基づいて、視聴者の特定の表情が検出されたシーンを特定するための情報を作成する。具体的には、区間「A」、「B」及び「C」を特定するための時間情報である。
ステップS926において、コンテンツ編集部221は、コンテンツを編集する。コンテンツ編集部213は、コンテンツ全体を通して熟練視聴者の注視点を合成してコンテンツを編集する。また、コンテンツ編集部221は、リプレイ映像配信用にコンテンツの一部のみの編集も行う。さらに、コンテンツ編集部218は、図12(a)に示したように、熟練視聴者の興味の対象と解析された時間部分のみのコンテンツをつなぎ合わせてコンテンツを編集する。具体的には、例えば、区間「A」、「B」及び「C」部分をつなぎ合わせて、図12(b)に示すようなコンテンツを編集する。編集されたコンテンツは、HDD204に記録される。
ステップS927において、CPU201は、リプレイ配信指示があったか否かを判断する。CPU201が、リプレイ配信指示があったと判断した場合には、ステップS928へ進む。一方、CPU201が、リプレイ配信指示がないと判断した場合には、ステップS913に戻る。
ステップS928において、CPU201は、配信部を介してリプレイ映像の配信を開始する。そしてステップS913に戻る。
以上説明したように、実施の形態2の情報処理装置によれば、コンテンツを視聴する視聴者画像から、当該視聴者を特定し、視聴者を通常の視聴者かあるいは熟練視聴者に分類
する。そして、熟練視聴者に分類された視聴者の興味の対象を解析し、第2の興味データを作成することができる。これにより、熟練視聴者の注視点をコンテンツに反映した編集コンテンツを作成することができる。
(実施の形態3)
次に、実施の形態3に係る情報処理装置103のCPU201により実行される情報処理手順について説明する。図13は、実施の形態3に係る情報処理装置103のCPU201により実行される情報処理手順の一例を示す説明図である。図13に示すフローチャートのプログラムは、HDD204に記録されている。
実施の形態3では、視聴者に配信されるコンテンツは、静止画である。実施の形態3では、情報処理装置103のCPU201は、視聴者が、ディスプレイ255に表示される静止画のどの部分に興味を持っているかを解析する。CPU201は、視聴者を所有物ごとに分類し、所有物と、視聴者の興味の対象についての第3の興味データを作成する。第3の興味データは、HDD204に記録される。また、第3の興味データは、第1の興味データ、第2の興味データとは別々に記録される。
なお、実施の形態3において、視聴者の所有物をカメラ(A1)とし、興味の対象を暗部のノイズとして説明する。図13のフローチャートにおいて、情報処理装置103と視聴者端末101とがネットワーク102を介して接続されると本処理手順が開始される。
ステップS1001において、情報処理装置103のCPU201は、入力部211に視聴者端末101からネットワーク102を介して視聴者画像が入力されるのを待つ。そして、CPU201が、視聴者画像が入力されたと判断した場合には、ステップS1002に進む。
ステップS1002において、情報処理装置103のCPU201は、入力された視聴者画像から視聴者を特定できたか否かを判断する。CPU201が、視聴者を特定できないと判断した場合にはステップS1003に進む。一方、CPU201が、視聴者を特定できたと判断した場合には、ステップS1004に進む。
ステップS1003において、情報処理装置103のCPU201は、視聴者情報を作成する。視聴者情報の作成の際には、情報処理装置103のCPU201は、視聴者が所定の項目に対して入力可能なリストを視聴者端末101に送信する。所定の項目とは、具体的には、例えば、視聴者の氏名、年齢、趣味、嗜好、生年月日などの項目である。視聴者情報入力リストは視聴者端末のディスプレイに表示される。視聴者は、ディスプレイに表示された視聴者情報入力リストを参照しながら、所定の項目に対して入力装置により入力することができる。そして、入力部211は、視聴者端末101から返信されたリストの入力を受け付ける。そして、CPU201は、当該リストに基づいて視聴者情報を作成する。作成された視聴者情報は、HDD204などに視聴者データベース301として記録される。
ステップS1004において、検索部219は、視聴者に配信するコンテンツ候補を検索する。検索部219は、視聴者データベース301を参照して、視聴者の興味の対象に関係するコンテンツを検索する。また、視聴者から配信するコンテンツに関して入力があった場合には、その入力情報に関係するコンテンツを検索する。
ステップS1005において、情報処理装置103のCPU201は、検索したコンテンツのリストデータを、ネットワーク102を介して視聴者端末101に送信する。視聴者端末101は、コンテンツのリストデータを受信すると、当該視聴者端末101のディスプレイ255にコンテンツリストを表示させる。視聴者は、視聴者端末101の表示画面に表示されたコンテンツリストの中から、入力装置257により視聴するコンテンツを指定することができる。
ステップS1006において、情報処理装置103のCPU201は、視聴者によりコンテンツが指定されたか否かを判断する。CPU201が、コンテンツが指定されていないと判断した場合には、ステップS1007に進む。一方、CPU201が、コンテンツが指定されたと判断した場合にはステップ1011に進む。
ステップS1007において、情報処理装置のCPU201は、コンテンツリストデータを配信してから所定時間が経過したか否かを判断する。CPU201が、所定時間が経過したと判断した場合には、ステップS1008に進む。一方、CPU201が、所定時間が経過していないと判断した場合には、ステップS1010に進む。
ステップS1008において、CPU201は、視聴者端末101にエラー表示画面のコンテンツを配信する。エラー表示画面のコンテンツとは、所定時間内にコンテンツの配信ができなかったため通信を切断する旨を視聴者に確認させるための表示である。
ステップS1009において、情報処理装置101のCPU201は、視聴者端末101との通信を切断する。これにより、一連の処理を終了する。
ステップS1010において、情報処理装置のCPU201は、視聴者端末101との通信を終了するか否かを判断する。CPU201が、視聴者端末との通信を終了しないと判断した場合には、ステップS1006に戻る。一方、CPU201が、視聴者端末101との通信を終了すると判断した場合には、視聴者端末101との回線の接続を切断して、一連の処理を終了する。
ステップS1011において、情報処理装置103のCPU201は、配信部212からネットワーク102を介して視聴者端末101に指定されたコンテンツを配信する。
ステップS1012において、情報処理装置103のCPU201は、視聴者によって他のコンテンツが指定されたか否かを判断する。CPU201が、視聴者端末101に配信されているコンテンツとは異なる他のコンテンツが指定されたと判断した場合には、ステップS1011に戻る。一方、CPU201が、他のコンテンツが指定されないと判断した場合には、ステップS1013に進む。
ステップS1013において、情報処理装置103のCPU201は、視聴者端末101との通信を終了するか否かを判断する。具体的には、例えば、CPU201は、視聴者端末101との通信が切断された場合、視聴者端末101から通信を終了する旨の入力情報を受け付けた場合などに通信を終了すると判断する。CPU201が、視聴者端末101との通信を終了しないと判断した場合には、ステップS1014に進む。一方、CPU201が、視聴者端末101との通信を終了すると判断した場合には、視聴者端末101との回線の接続を切断して、一連の処理を終了する。
ステップS1014において、情報処理装置103のCPU201は、配信したコンテンツの画像表示領域情報を初期値に設定する。画像表示領域情報とは、視聴者端末101のディスプレイに表示させるコンテンツの表示領域を座標により表した情報である。図14(a)に画像表示領域の一例を示す。CPU201は、視聴者端末101のディスプレイ255に最初に表示された表示領域の各座標を初期値として設定する。具体的には、CPU201は、図14(b)に示すように、(0,0)、(a1,a2)、(b1,b2)、(c1,c2)を画像表示領域1101の初期値として設定する。ここで、図示は省略するが、ディプレイ上には、画像表示領域1101の原点(0,0)の位置を特定するための座標が割り振られている。CPU201は、ディスプレイ255上の座標と画像表示領域情報に基づいて、画像表示領域1101の位置や大きさを特定することができる。視聴者端末101のディスプレイ255にコンテンツが表示されると、視聴者端末101のCPU251は、最初に表示されたコンテンツの画像表示領域1101の座標情報を、I/F256を介して情報処理装置103に送信する。入力部211は、画像表示領域1101の座標情報の入力を受け付ける。そして、CPU201は、当該情報に基づいて、画像表示領域情報の初期値を設定する。
ステップS1015において、情報処理装置103のCPU201は、入力部211に視聴者画像が入力されたか否かを判断する。CPU201が、視聴者画像が入力されたと判断しない場合には、ステップS1016に進む。一方、CPU201が、視聴者画像が入力されたと判断した場合には、ステップS1018に進む。
ステップS1016において、情報処理装置103のCPU201は、入力部211に画像の表示領域の操作情報が入力されたか否かを判断する。操作情報とは、例えば、コンテンツの表示領域の拡大、縮小などの情報である。図14(c)は、視聴者による操作後の拡大時の画像表示領域を示す図である。図14(c)は、視聴者の操作により、図14(b)に示す、座標(d1,d2)、(e1,e2)、(f1,f2)、(g1,g2)によって囲まれる枠1102部分が拡大された図である。具体的には、拡大後のコンテンツ上の座標(d1,d2)が(0,0)と、(e1,e2)が(a1,a2)と、(f1,f2)が(b1,b2)と、(g1,g2)が(c1,c2)とがぞれぞれ一致するように拡大された図である。
CPU251は、枠1102の四隅の座標情報及び拡大率を特定し、ネットワーク102を介して情報処理装置103に枠1102の四隅の座標情報及び拡大率を送信する。そして、情報処理装置103の入力部211が四隅の座標情報及び拡大率の入力を受け付ける。
また、図11(c)に示すように、コンテンツの拡大により、画像表示領域1101にコンテンツの一部のみが表示されている場合には、スクロールバー1103を移動する操作により、コンテンツの表示部分を変更することができる。スクロールバー1103の操作により、画像表示領域1101に表示されているコンテンツが変更された場合には、CPU251は、変更後の画像表示領域1101の四隅の座標情報を情報処理装置103に送信する。CPU201が、操作情報が入力されたと判断しない場合には、ステップS1015に戻る。一方、CPU201が、操作情報が入力されたと判断した場合には、ステップS1017に進む。
ステップS1017において、情報処理装置103のCPU201は、画像表示領域情報の値を変更する。CPU201は、入力された表示領域の操作情報に基づいて、画像表示領域情報の値を変更する。具体的には、CPU201は、初期値の座標情報を拡大後に各初期値の座標と一致させた四隅の座標情報に変更する。より具体的には、例えば、図11の(b)の例において、CPU201は、画像表示領域情報の値を(d1,d2)、(e1,e2)、(f1,f2)、(g1,g2)に変更し、更に拡大率を付加する。これらの情報により、CPU201は配信したコンテンツのうち、表示領域1101に表示されるコンテンツを特定することができる。そのため、後述するように、CPU201は、視聴者の視線が検出された位置に表示されている表示物を特定することができる。画像表示領域情報の変更を行ったら、ステップS1015に戻る。
ステップS1018において、視聴者特定部214は、入力された視聴者画像から視聴者を特定する。本ステップでは、特定した視聴者画像から視聴者の視線を検出するために特定を行う。
ステップS1019において、分類部215は、視聴者を所定の項目ごとに分類する。具体的には、分類部215は、視聴者データベース301に基づいて、視聴者を所有物ごとに分類する。より具体的には、例えば、視聴者特定部214によって視聴者が「A」であると特定された場合には、視聴者「A」を、視聴者データベース301に基づいて「カメラ」を所有する者、あるいはカメラの機種として「A1」を所有する者に分類する。
ステップS1020において、情報処理装置103のCPU201は、視線検出部217によって視聴者の視線が検出されたか否かを判断する。CPU201が、視聴者の視線が検出されていないと判断した場合には、ステップS1015に戻る。一方、CPU201が、視聴者の視線が検出されたと判断した場合には、ステップS1021に進む。
ステップS1021において、情報処理装置103のCPU201は、視聴者端末101のディスプレイ255に表示されている画像領域を特定する。CPU201は、設定されている画像表示領域情報に基づいて、視聴者端末101の表示画面の画像領域を特定する。
ステップS1022において、情報処理装置103のCPU201は、視聴者の視線検出情報を生成する。視線検出情報とは、画像表示領域1101内のコンテンツ上の視聴者の視線の位置(以下、「視線位置」という。)を特定するための情報である。より具体的には、視線検出情報は、視聴者の視線が検出された位置の座標情報である。
ステップS1023において、興味対象解析部216は、視聴者の興味の対象を解析する。興味対象解析部216は、視線検出情報の座標情報により視聴者の視線が検出された位置に表示されている表示物を視聴者の興味の対象として解析する。具体的には、例えば、図14(a)の例において、視聴者の視線が、暗部1104に検出されれば、視聴者の興味の対象は、暗部1104のノイズ部分にあると解析される。
ステップS1024において、情報処理装置103のCPU201は、視聴者の第3の興味データを作成する。ステップS1022で作成される第3の興味データは、例えば、分類部215よって分類された視聴者の分類情報と、興味対象解析部216によって解析された視聴者の興味の対象とに基づいて作成される興味データである。具体的には、本実施の形態3においては、「カメラA1の所有者は、暗部のノイズ部分に興味を持っている」というデータである。データ作成部218は、複数の視聴者の興味データを作成することにより、視聴者の興味の対象に関する統計的な興味データを作成することができる。図15に統計的な興味データの一例を示す。図15の例において、「カメラの中級機の所有者のうち、主要被写体に興味を持っている人は35%、暗部のノイズ部分に興味を持っている人が25%、・・」、「カメラの高級機の所有者のうち、主要被写体に興味を持っている人は20%、暗部のノイズ部分に興味を持っている人が45%、・・」のような情報である。そして、ステップS1012に戻る。
以上説明したように、実施の形態3の情報処理装置によれば、コンテンツを視聴する視聴者画像から、当該視聴者を特定し、視聴者が視聴している静止画のどの部分に興味の対象があるかを解析することができる。そして、情報処理装置は、解析された興味の対象に基づいて、第3の興味データを作成することができる。これにより、例えば、カメラの開発者は、新たな製品を開発する際に、顧客の興味の対象を考慮して、どのように製品を開発するか、あるいはどの部分に力を注ぐかなどを認識することができる。
(実施の形態1〜3の変形例)
なお、上述した実施の形態1〜3では、視聴者端末101側に備えられたカメラ104によって撮像された画像から、情報処理装置103が視聴者を特定する例について説明したが、実施の形態はこれらに限られない。ここで、視聴者端末101に備えられたカメラ104が撮像した画像から、当該カメラ104が視聴者を特定する変形例について説明する。
図16は、変形例に係る情報処理システム100のカメラ104の機能的構成について示す説明図である。図16のカメラ104は、接続部1208を介して視聴者端末101に接続されているものである。図12において、カメラ104は、CPU1201と、RAM1202と、ROM1203と、フラッシュメモリ1204と、操作部1205と、撮像部1206と、送信部1207と、接続部1208と、を有している。なお、各構成部はバス1210によってそれぞれ接続されている。
図16において、CPU1201は、ROM1203等に記録されているプログラムから、RAM1202にロードしたプログラムに従って、カメラ104の全体の動作を制御する。また、RAM1203には、CPU1201が各種の処理を実行する上において必要なデータなどが適宜記録される。
フラッシュメモリ1204は、不揮発性で書き換え可能なメモリである。フラッシュメモリ1204は、CPU1201が実行するプログラムデータや、プログラム実行時に読み込まれる種々のパラメータ等が記録されている。また、フラッシュメモリ1204は、画像データ、個体情報などの書き込み、書き換えの必要があるデータを記録している。また、フラッシュメモリ1204は、視聴者を特定するための視聴者の顔画像を記録している。
操作部1205は、録画ボタンおよび日時設定スイッチなどによって構成される。操作部1205は、各操作スイッチが操作されると、対応する操作信号をCPU1201へ出力する。
撮像部1206は、コンテンツを視聴する視聴者を撮像し、所定の処理により視聴者画像を生成する。撮像部1206は、CPU1201の制御により、所定の間隔で、視聴者を撮像する。
また、CPU1201は、撮像部1206によって撮像された画像から視聴者を特定する。視聴者の特定は、撮像部1206により撮像された視聴者画像から視聴者の顔領域を特定する。そして、特定された視聴者の顔画像と、フラッシュメモリ1204に記録されている顔画像とを比較することにより視聴者の特定を行う。なお、CPU1201が視聴者の特定を行うのは、情報処理装置103からコンテンツの配信が開始される前である。具体的には、情報処理装置103と視聴者端末101とがネットワーク102を介して接続され、最初に撮像された視聴者画像により視聴者の特定を行う。
送信部1207は、CPU1201の制御により、撮像部1206によって撮像された視聴者画像及び特定された視聴者特定情報をネットワーク102を介して情報処理装置103に送信する。視聴者特定情報とは、具体的には、CPU1201によって特定された視聴者のID情報である。
そして、情報処理装置103は、入力された視聴者の特定情報に基づいて、視聴者を分類することとなる。
実施の形態1に係る情報処理システムのシステム構成の一例を示す説明図である。 実施の形態1に係る情報処理装置の機能的構成の一例を示すブロック図である。 視聴者端末の機能的構成の一例を示すブロック図である。 視聴者データベースの一例を示す図である。 特定の表情の検出結果の一例を示す図である。 視聴者個人の興味の対象に関する興味データを示す図である。 コンテンツデータベースの一例を示す図である。 所定の領域について示す説明図である。 合成コンテンツの一例について示す説明図である。 実施の形態1にかかる情報処理装置の処理手順の一例について示すフローチャートである。 実施の形態2に係る情報処理装置の情報処理手順の一例について示すフローチャートである。 熟練視聴者の興味の対象について説明する図である。 実施の形態3に係る情報処理装置の情報処理手順の一例を示すフローチャートである。 画像表示領域について示す説明図である。 統計的な興味データの一例を示す図である。 カメラの機能的構成について示すブロック図である。
符号の説明
100 情報処理システム
101 視聴者端末
102 ネットワーク
103 情報処理装置
201 CPU
207 通信部
211 入力部
212 配信部
213 コンテンツ識別部
214 視聴者特定部
215 分類部
216 興味対象解析部
217 視線検出部
218 データ作成部
219 検索部
220 領域特定部
211 コンテンツ編集部

Claims (9)

  1. コンテンツを視聴する視聴者が撮像された画像の入力を外部装置から通信回線を介して受け付ける入力手段と、
    前記視聴者が視聴しているコンテンツを識別するコンテンツ識別手段と、
    前記入力手段によって入力された画像と、視聴者データベースに記憶されている視聴者情報とに基づいて、前記視聴者を特定する視聴者特定手段と、
    前記視聴者特定手段によって特定された視聴者を分類する分類手段と、
    前記入力手段によって入力された視聴者の画像と、前記コンテンツ識別手段によって識別されたコンテンツの情報とに基づいて、前記視聴者の興味の対象を解析する興味対象解析手段と、
    前記分類手段よって分類された前記視聴者の分類情報と、前記興味対象解析手段によって解析された前記視聴者の興味の対象とに基づいて、前記視聴者の分類に応じた興味データを作成するデータ作成手段と、
    を備えることを特徴とする情報処理装置。
  2. 請求項1に記載の情報処理装置において、
    さらに、前記視聴者の興味の対象に基づいて、前記コンテンツ(以下、「第1のコンテンツ」という)と異なる第2のコンテンツをコンテンツデータベースから検索する検索手段と、
    前記検索手段によって検索された第2のコンテンツを、前記第1のコンテンツを視聴している視聴者に配信する配信手段と、
    を備えたことを特徴とする情報処理装置。
  3. 請求項2に記載の情報処理装置において、
    前記検索手段は、前記視聴者の興味の対象と前記分類情報とに基づいて、前記第2のコンテンツを検索することを特徴とする情報処理装置。
  4. 請求項2または3に記載の情報処理装置において、
    前記第1のコンテンツ及び第2のコンテンツは画像を含み、
    前記コンテンツ識別手段によって識別される前記第1のコンテンツの画像中から所定の領域を特定する領域特定手段と、
    前記第2のコンテンツの画像を、前記領域特定手段によって特定された領域に合致するように前記第1のコンテンツの画像に合成して合成コンテンツを生成するコンテンツ編集手段と、を備え、
    前記配信手段は、前記合成コンテンツを配信することを特徴とする情報処理装置。
  5. 請求項1に記載の情報処理装置において、
    前記データ生成手段は、前記分類手段によって特定視聴者に分類された視聴者の興味データを作成し、
    前記特定視聴者の興味データに基づいて、前記コンテンツを編集するコンテンツ編集手段と、
    前記コンテンツ編集手段によって編集されたコンテンツを、前記特定視聴者以外の視聴者に配信する配信手段を更に備えたことを特徴とする情報処理装置。
  6. コンテンツを視聴する視聴者を撮像するカメラと、前記カメラに通信回線を介して接続される情報処理装置とによって構成される情報処理システムにおいて、
    前記カメラは、
    前記視聴者を撮像する撮像手段と、
    前記撮像手段によって撮像された視聴者の画像を前記情報処理装置に送信する送信手段と、を備え、
    前記情報処理装置は、
    前記カメラから送信された前記視聴者の画像の入力を受け付ける入力手段と、
    前記視聴者が視聴しているコンテンツを識別するコンテンツ識別手段と、
    前記入力手段によって入力された視聴者の画像と、視聴者データベースに記憶されている視聴者情報とに基づいて、前記視聴者を特定する視聴者特定手段と、
    前記視聴者特定手段によって特定された視聴者を分類する分類手段と、
    前記入力手段によって入力された視聴者の画像と、前記コンテンツ識別手段によって識別されたコンテンツの情報とに基づいて、前記視聴者の興味の対象を解析する興味対象解析手段と、
    前記分類手段よって分類された前記視聴者の分類情報と、前記興味対象解析手段によって解析された前記視聴者の興味の対象とに基づいて、前記視聴者の分類に応じた興味データを作成するデータ作成手段と、
    を備えることを特徴とする情報処理システム。
  7. コンテンツを視聴する視聴者を撮像するカメラと、前記カメラに通信回線を介して接続される情報処理装置とによって構成される情報処理システムにおいて、
    前記カメラは、
    前記視聴者を撮像する撮像手段と、
    前記撮像手段によって撮像された視聴者の画像から前記視聴者を特定する視聴者特定手段と、
    前記視聴者特定手段によって特定された視聴者の特定情報と、撮像された前記視聴者の画像とを前記情報処理装置に送信する送信手段と、を備え、
    前記情報処理装置は、
    前記カメラから送信された特定情報及び前記視聴者の画像の入力を受け付ける入力手段と、
    前記視聴者が視聴しているコンテンツを識別するコンテンツ識別手段と、
    前記入力手段によって入力された特定情報によって特定される視聴者を分類する分類手段と、
    前記入力手段によって入力された前記視聴者の画像と、前記コンテンツ識別手段によって識別されたコンテンツの情報とに基づいて、前記視聴者の興味の対象を解析する興味対象解析手段と、
    前記分類手段よって分類された前記視聴者の分類情報と、前記興味対象解析手段によって解析された前記視聴者の興味の対象とに基づいて、前記視聴者の分類に応じた興味データを作成するデータ作成手段と、
    を備えることを特徴とする情報処理システム。
  8. 請求項1〜7のいずれかに記載の情報処理装置において、
    前記興味対象解析手段は、入力された前記視聴者の画像から前記視聴者の視線を検出して視線検出情報を生成する視線検出手段を備え、前記視線検出情報と、前記コンテンツの情報とに基づいて、前記視聴者の興味の対象を解析することを特徴とする情報処理装置。
  9. 請求項1〜7のいずれかに記載の情報処理装置において、
    前記興味対象解析手段は、入力された前記視聴者の画像から前記視聴者の表情を検出して表情検出情報を生成し、前記表情検出情報と、前記コンテンツの情報とに基づいて、前記視聴者の興味の対象を解析することを特徴とする情報処理装置。
JP2008188915A 2008-07-22 2008-07-22 情報処理装置及び情報処理システム Pending JP2010026871A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008188915A JP2010026871A (ja) 2008-07-22 2008-07-22 情報処理装置及び情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008188915A JP2010026871A (ja) 2008-07-22 2008-07-22 情報処理装置及び情報処理システム

Publications (1)

Publication Number Publication Date
JP2010026871A true JP2010026871A (ja) 2010-02-04

Family

ID=41732634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008188915A Pending JP2010026871A (ja) 2008-07-22 2008-07-22 情報処理装置及び情報処理システム

Country Status (1)

Country Link
JP (1) JP2010026871A (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014042235A (ja) * 2012-07-24 2014-03-06 Takashi Hirabayashi 視聴率調査システム、並びに表情情報生成装置及び表情情報生成プログラム
US8750579B2 (en) 2011-09-29 2014-06-10 Kabushiki Kaisha Toshiba Image information processing apparatus and image information processing method
JP2014523154A (ja) * 2011-06-17 2014-09-08 マイクロソフト コーポレーション インタレストベースビデオストリーム
JP2014524178A (ja) * 2011-06-17 2014-09-18 マイクロソフト コーポレーション 環境センシングに基づくビデオハイライト特定
JP2015060580A (ja) * 2013-09-20 2015-03-30 ヤフー株式会社 情報処理システム、情報処理方法および情報処理プログラム
JP2015133033A (ja) * 2014-01-15 2015-07-23 株式会社日本総合研究所 レコメンド装置、レコメンド方法、およびプログラム
WO2015182841A1 (ko) * 2014-05-29 2015-12-03 모젼스랩 주식회사 관객반응 분석 시스템 및 방법
WO2019044572A1 (ja) * 2017-09-04 2019-03-07 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP2020095561A (ja) * 2018-12-14 2020-06-18 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP2021140358A (ja) * 2020-03-03 2021-09-16 株式会社Jvcケンウッド サーバ、チャットシステム、広告設定方法及び広告設定プログラム
JP7398854B1 (ja) 2023-06-30 2023-12-15 ヴィアゲート株式会社 ウェブページ閲覧解析システム、ウェブページ閲覧解析方法およびウェブページ閲覧解析プログラム
JP7398853B1 (ja) 2023-06-30 2023-12-15 ヴィアゲート株式会社 動画視聴解析システム、動画視聴解析方法および動画視聴解析プログラム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014523154A (ja) * 2011-06-17 2014-09-08 マイクロソフト コーポレーション インタレストベースビデオストリーム
JP2014524178A (ja) * 2011-06-17 2014-09-18 マイクロソフト コーポレーション 環境センシングに基づくビデオハイライト特定
US8750579B2 (en) 2011-09-29 2014-06-10 Kabushiki Kaisha Toshiba Image information processing apparatus and image information processing method
JP2014042235A (ja) * 2012-07-24 2014-03-06 Takashi Hirabayashi 視聴率調査システム、並びに表情情報生成装置及び表情情報生成プログラム
JP2015060580A (ja) * 2013-09-20 2015-03-30 ヤフー株式会社 情報処理システム、情報処理方法および情報処理プログラム
JP2015133033A (ja) * 2014-01-15 2015-07-23 株式会社日本総合研究所 レコメンド装置、レコメンド方法、およびプログラム
WO2015182841A1 (ko) * 2014-05-29 2015-12-03 모젼스랩 주식회사 관객반응 분석 시스템 및 방법
WO2019044572A1 (ja) * 2017-09-04 2019-03-07 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP2020095561A (ja) * 2018-12-14 2020-06-18 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP2021140358A (ja) * 2020-03-03 2021-09-16 株式会社Jvcケンウッド サーバ、チャットシステム、広告設定方法及び広告設定プログラム
JP7490984B2 (ja) 2020-03-03 2024-05-28 株式会社Jvcケンウッド サーバ、チャットシステム、広告設定方法及び広告設定プログラム
JP7398854B1 (ja) 2023-06-30 2023-12-15 ヴィアゲート株式会社 ウェブページ閲覧解析システム、ウェブページ閲覧解析方法およびウェブページ閲覧解析プログラム
JP7398853B1 (ja) 2023-06-30 2023-12-15 ヴィアゲート株式会社 動画視聴解析システム、動画視聴解析方法および動画視聴解析プログラム

Similar Documents

Publication Publication Date Title
JP2010026871A (ja) 情報処理装置及び情報処理システム
US10971188B2 (en) Apparatus and method for editing content
CN107005724B (zh) 信息处理装置、信息处理方法和程序
US7933809B2 (en) Method, medium, and system for automatically embedding information concerning items appearing in video using RFID tags
US8442389B2 (en) Electronic apparatus, reproduction control system, reproduction control method, and program therefor
EP4024879A1 (en) Video processing method and device, terminal and computer readable storage medium
CN103760968B (zh) 数字标牌显示内容选择方法和装置
KR101990536B1 (ko) 영상 통화 수행 시 사용자들의 관심 정보를 제공하는 정보 제공 방법 및 이를 적용한 전자 장치
JP4360425B2 (ja) 画像処理装置、その処理方法およびプログラム
JP2014106637A (ja) 情報処理装置および方法、並びにプログラム
US20190066158A1 (en) Method and electronic device for providing advertisement
KR20160087222A (ko) 디지털 컨텐츠의 시각적 내용 분석을 통해 포토 스토리를 생성하는 방법 및 장치
JP2013070155A (ja) 動画スコアリングシステム、サーバ装置、動画スコアリング方法、動画スコアリングプログラム
CN113473164A (zh) 直播数据处理方法、装置、计算机设备及介质
CN104133956A (zh) 处理图片的方法及装置
CN113542624A (zh) 生成商品对象讲解视频的方法及装置
CN113099297A (zh) 卡点视频的生成方法、装置、电子设备及存储介质
JP6203188B2 (ja) 類似画像検索装置
JP2014068290A (ja) 画像処理装置、画像処理方法、およびプログラム
KR101490506B1 (ko) 동영상 컨텐츠 편집 방법 및 장치
JP2021177362A (ja) 情報処理装置、情報処理方法、情報処理プログラム及び端末装置
CN104901939B (zh) 多媒体文件播放方法和终端及服务器
JP2010147509A (ja) 映像処理装置及び映像配信システム
CN110688563A (zh) 通信终端、内容服务器、内容推荐系统以及控制装置
CN113891133B (zh) 多媒体信息的播放方法、装置、设备及存储介质