JP2011018178A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2011018178A
JP2011018178A JP2009161970A JP2009161970A JP2011018178A JP 2011018178 A JP2011018178 A JP 2011018178A JP 2009161970 A JP2009161970 A JP 2009161970A JP 2009161970 A JP2009161970 A JP 2009161970A JP 2011018178 A JP2011018178 A JP 2011018178A
Authority
JP
Japan
Prior art keywords
language
concept
image
unit
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009161970A
Other languages
English (en)
Inventor
Shunichi Honma
俊一 本間
Yoshiaki Iwai
嘉昭 岩井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009161970A priority Critical patent/JP2011018178A/ja
Priority to US12/825,996 priority patent/US20110010363A1/en
Priority to CN2010102199365A priority patent/CN101950288A/zh
Publication of JP2011018178A publication Critical patent/JP2011018178A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising

Landscapes

  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】ユーザのイメージする概念毎に分類された画像群をもとにユーザプロファイルを作成する。
【解決手段】情報処理装置10は、複数の画像と各画像に関連する複数の関連言語とを関連付けて記憶している記憶部156と、所定の概念を示す概念言語を入力する入力部152と、入力部152により入力された概念言語と関連言語とが一致する場合に、関連言語に関連付けられている複数の画像を記憶部から抽出する抽出部154と、抽出部154により抽出された複数の画像から、概念言語の概念に適合する画像を選別する選別部160と、選別部160により選別された概念言語の概念に適合する画像に関連付けられている関連言語を収集する収集部162と、収集部162により収集された関連言語の言語群の言語特徴量を算出する算出部164と、を備える。
【選択図】図3

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関し、特に、ユーザのプロファイルを作成・制御する情報処理装置、情報処理方法およびプログラムに関する。
近年、各ユーザの検索履歴や購入履歴などをもとに各ユーザのプロファイルが作成され、該プロファイルを利用した商品の検索やコンテンツの推薦などが行われている。プロファイルの作成においては、ユーザが購入した商品の種類やメーカーなどをもとにあらかじめ用意されたユーザ属性や、ユーザ自身が入力したキーワードなどが利用されている。例えば、ユーザ自身が入力したキーワードと、あらかじめ用意されたユーザ属性とをマッチングさせて、入力されたキーワードに関連する商品やコンテンツを推薦する。
しかし、上記の方法では、ユーザ自身が入力したキーワードと、あらかじめ用意されたキーワードや属性とがうまくマッチングしない場合が多い。すなわち、ユーザが何らかの概念を持ってキーワードを入力したとしても、その概念を有するものが極めて少なかったり、その概念と異なるものが得られてしまったりする場合がある。また、ユーザ自身も、イメージする概念をうまく言語化することができなければ、検索キーとなるクエリの作成自体が困難となるという問題があった。
そこで、検索クエリ言語と検索クエリ言語を用いた検索履歴をもとに各ユーザのプロファイルを生成し、ユーザの所望する検索結果を提供する技術が開示されている(例えば、特許文献1)。
特表2008−507041号公報
しかし、特許文献1では、具体的な物体名称や固有名に対する嗜好を抽出することはできるが、形容詞をはじめとする感性的な表現など、個人により受け取り方が異なる場合に、ユーザの概念とかけ離れた情報を提供してしまう可能性があった。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、ユーザのイメージする概念毎に分類された画像群をもとに、ユーザプロファイルを作成することが可能な、新規かつ改良された情報処理装置、情報処理方法およびプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、複数の画像と各画像に関連する複数の関連言語とが関連付けられており、所定の概念を示す概念言語を入力する入力部と、入力部により入力された概念言語と関連言語とが一致する場合に、関連言語に関連付けられている複数の画像を記憶部から抽出する抽出部と、抽出部により抽出された複数の画像から、概念言語の概念に適合する画像を選別する選別部と、選別部により選別された概念言語の概念に適合する画像に関連付けられている関連言語を収集する収集部と、収集部により収集された関連言語の言語群の言語特徴量を算出する算出部と、を備える、情報処理装置が提供される。
かかる構成によれば、ユーザ操作などにより所定の概念を示す概念言語が入力され、概念言語と記憶部に記憶されている複数の画像に関連する関連言語とが一致する場合に、該関連言語に関連付けられている複数の画像を記憶部から抽出する。そして、ユーザ操作に応じて、抽出された複数の画像から概念言語の概念に適合する画像を選別する。選別された概念言語の概念に適合する画像に関連付けられている関連言語を収集して、収集された関連言語の言語群の言語特徴量を算出する。これにより、ユーザのイメージする概念毎に分類された画像群をもとに、ユーザプロファイルを作成することが可能となる。
また、選別部は、ユーザ操作に応じて、抽出部により抽出された複数の画像から、概念言語の概念に適合する画像を選別するようにしてもよい。また、算出部は、収集部により収集された関連言語の出現頻度に応じて言語特徴量を算出するようにしてもよい。また、算出部は、選別部により概念言語に適合されない画像として選別された画像群に関連付けられた関連言語の出現頻度に応じて言語特徴量を算出するようにしてもよい。
また、選別部により選別された概念言語の概念に適合する画像群から、所定の画像特徴量を認識可能な画像認識器を作成する作成部を備えるようにしてもよい。また、算出部により算出された言語特徴量を、概念言語に対応付けて概念情報として記憶媒体に記録する記録部を備えるようにしてもよい。
また、記録部は、言語特徴量に応じて概念言語を所定の概念地図上にマッピングして記録するようにしてもよい。また、記録部は、概念言語に、選別部により選別された画像を含む関連画像群と、収集部により収集された関連言語を含む関連言語群と、算出部により算出された言語特徴量とを対応付けて概念情報として記憶媒体に記録してもよい。
また、複数の画像に加えて、新たに複数の画像と各画像に関連する複数の関連言語とが関連付けられた場合、抽出部は、概念言語と一致する関連言語に関連付けられている複数の画像を抽出し、選別部は、概念言語の概念に適合する画像を新たに選別し、収集部は、概念言語の概念に適合する画像に関連付けられている関連言語を再収集し、算出部は、収集部により再収集された関連言語の言語群の言語特徴量を再算出するようにしてもよい。
また、選別部は、ユーザ操作に応じて、概念言語の概念に適合する画像を新たに選別するようにしてもよい。
また、選別部は、作成部により作成された画像認識器による画像認識度に応じて、概念言語の概念に適合する画像を新たに選別するようにしてもよい。
また、ユーザ操作に応じて、記録部に記録されている言語特徴量に応じた概念言語の概念地図上のマッピングが変更された場合に、算出部は、更新された概念地図上の概念言語のマッピング位置に基づいて、概念言語の言語特徴量を再算出するようにしてもよい。
また、選別部は、作成部により作成された画像認識器による画像認識度に応じて、抽出部により抽出された複数の画像から概念言語の概念に適合する画像を選別するようにしてもよい。
上記課題を解決するために、本発明の別の観点によれば、所定の概念を示す概念言語を入力するステップと、入力された概念言語と複数の画像に関連付けられている関連言語とが一致する場合に、関連言語に関連付けられている複数の画像を記憶部から抽出するステップと、抽出された複数の画像から、概念言語の概念に適合する画像を選別するステップと、選別された概念言語の概念に適合する画像に関連付けられている関連言語を収集するステップと、収集された関連言語の言語群の言語特徴量を算出するステップと、を含む、情報処理方法が提供される。
上記課題を解決するために、本発明の別の観点によれば、コンピュータを、複数の画像と各画像に関連する複数の関連言語とが関連付けられており、所定の概念を示す概念言語を入力する入力部と、入力部により入力された概念言語と関連言語とが一致する場合に、関連言語に関連付けられている複数の画像を抽出する抽出部と、抽出部により抽出された複数の画像から、概念言語の概念に適合する画像を選別する選別部と、選別部により選別された概念言語の概念に適合する画像に関連付けられている関連言語を収集する収集部と、収集部により収集された関連言語の言語群の言語特徴量を算出する算出部と、を備える、情報処理装置として機能させるためのプログラムが提供される。
以上説明したように本発明によれば、ユーザのイメージする概念毎に分類された画像群をもとにユーザプロファイルを作成することができる。
本発明の一実施形態にかかるプロファイル作成の概要について説明する説明図である。 同実施形態にかかる情報処理装置のハードウェア構成の一例を示した説明図である。 同実施形態にかかる情報処理装置の機能構成を示すブロック図である。 同実施形態にかかる言語+画像データベースの内容について説明する説明図である。 同実施形態にかかる概念情報データベースに記憶される概念情報の内容について説明する説明図である。 同実施形態にかかる概念地図上に表される概念言語の関連度について説明する説明図である。 同実施形態にかかるプロファイル作成処理の詳細を示すフローチャートである。 同実施形態にかかるSVMを用いたフィードバック処理について説明する説明図である。 同実施形態にかかるTF−IDFの使用方法について説明する説明図である。 同実施形態にかかるプロファイルの更新例について説明する説明図である。 同実施形態にかかるプロファイルの更新例について説明する説明図である。 同実施形態にかかるプロファイルの利用例について説明する説明図である。 同実施形態にかかるプロファイルの利用例について説明する説明図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
〔1〕本実施形態の目的
〔2〕情報処理装置のハードウェア構成
〔3〕情報処理装置の機能構成
〔4〕情報処理装置におけるプロファイル作成処理の詳細
〔5〕プロファイルの更新例
〔6〕プロファイルの利用例
〔1〕本実施形態の目的
近年、各ユーザの検索履歴や購入履歴などをもとに各ユーザのプロファイルが作成され、該プロファイルを利用した商品の検索やコンテンツの推薦などが行われている。このようなプロファイルを利用した推薦技術や、それによるユーザビリティの向上は今後も拡大することが予想される。また、これらのプロファイルは、特定のサイトや目的に依存するのではなく、他のサイトや家電機器上での利用など、様々な状況で共有されている。
昨今のプロファイルの作成においては、ユーザが購入した商品の種類やメーカーなどをもとにあらかじめ用意されたユーザ属性や、ユーザ自身が入力したキーワードなどが利用されている。例えば、ユーザ自身が入力したキーワードと、あらかじめ用意されたユーザ属性とをマッチングさせて、入力されたキーワードに関連する商品やコンテンツを推薦する。
しかし、上記の方法では、ユーザ自身が入力したキーワードと、あらかじめ用意されたキーワードや属性とがうまくマッチングしない場合が多い。すなわち、ユーザが何らかの概念を持ってキーワードを入力したとしても、その概念を有するものが極めて少なかったり、その概念と異なるものが得られてしまったりする場合がある。また、ユーザ自身も、イメージする概念をうまく言語化することができなければ、検索キーとなるクエリの作成自体が困難となるという問題があった。また、同音異義語や部分一致するキーワード、人名や商品名といったまったく新しい言葉への対応、言語同士の距離計測など、ユーザがイメージする概念とうまくマッチングできない様々な場面が想定される。
そこで、検索クエリ言語と検索クエリ言語を用いた検索履歴をもとに各ユーザのプロファイルを生成し、ユーザの所望する検索結果を提供する技術が開示されている。しかし、この技術では、具体的な物体名称や固有名に対する嗜好を抽出することはできるが、形容詞をはじめとする感性的な表現など、個人により受け取り方が異なる場合に、ユーザの概念とかけ離れた情報を提供してしまう可能性があった。
上記の問題は、プロファイルの利用や更新において大きな障害となってくる。特に、プロファイルを自動更新する場合には、ユーザの概念と言語の一致度が曖昧なまま、それらの言語を用いて新たな情報を収集することになる。この場合、ユーザが所望の情報を得るためには、一度生成されたプロファイルを修正する必要があった。そこで、上記のような事情を一着原点として、本発明の実施形態にかかる情報処理装置10が創作されるに至った。本実施形態にかかる情報処理装置10によれば、ユーザのイメージする概念毎に分類された画像群をもとに、ユーザプロファイルを作成することが可能となる。
次に、図1を参照して、本実施形態にかかる情報処理装置10におけるプロファイル作成の概要について説明する。例えば、ユーザ50がパーソナルコンピュータ等のコンピュータ装置から、「桜」という言語クエリ(キーワード)51を入力したとする。そして、情報処理装置10において、「桜」という言語を関連語に含む画像が収集される。関連語は、例えば、画像に関連付けられた言語やユーザにより画像に設定された言語である。「桜」という言語を関連語に含む画像としては、例えば、「桜もち」、「桜模様のワンピース」、「桜の木」、「桜茶」などの画像が考えられる。
例えば、ユーザは、「桜の木」をイメージして「桜」を言語クエリとして入力したとしても、「桜」に関連する画像は、ユーザの概念である「桜の木」以外の画像も収集されることとなる。そこでユーザは、収集された画像をユーザの概念に一致するように分類する。すなわち、「桜」という言語を関連語に含む画像から、「桜の木」が含まれる画像を選別する。このように、ユーザの概念を一旦画像として表現し、ユーザ操作に応じて画像を選別することにより、言語クエリだけでは曖昧となっていたユーザの概念を明確化することができる。
さらに、情報処理装置10は、ユーザ操作により選別された画像に関連付けられた文字情報54を収集して、入力された「桜」という言語クエリに関連付ける。これにより、ユーザ50がイメージする「桜」という概念に適合する文字情報が言語クエリ「桜」に関連付けられることとなる。例えば、ユーザのイメージする概念と画像とを結びつける言語と、コンテンツ作成者のイメージする概念と画像とを結びつける言語が一致しないとしても、画像を通して概念と両者の言語とを結びつけることが可能となる。
さらに、情報処理装置10は、収集された文字情報54の言語特徴量を算出して、該特徴量をもとに、より的確にユーザの概念を表すことを可能とする。言語特徴量は、ユーザ操作によりユーザの概念に適合せずに選別されなかった画像群に関連付けられた言語群や、収集された言語54における特定言語の出現頻度を鑑みて算出される。これにより、所定の概念を示す言語(概念言語)に対して、概念言語に適合する画像群と、該画像に紐付けられた言語群と、該言語群をもとに算出された言語特徴量とが新しい概念情報としてユーザプロファイルに追加されることとなる。以上、情報処理装置10の概要について説明した。
〔2〕情報処理装置のハードウェア構成
次に、図2を参照して、情報処理装置10のハードウェア構成について説明する。図2は、本実施形態にかかる情報処理装置10のハードウェア構成の一例を示した説明図である。
情報処理装置10は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、ホストバス104と、ブリッジ105と、外部バス106と、インタフェース107と、入力装置108と、出力装置109と、ストレージ装置(HDD)110と、ドライブ111と、通信装置112とを備える。
CPU101は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置10内の動作全般を制御する。また、CPU101は、マイクロプロセッサであってもよい。ROM102は、CPU101が使用するプログラムや演算パラメータ等を記憶する。RAM103は、CPU101の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバスなどから構成されるホストバス104により相互に接続されている。
ホストバス104は、ブリッジ105を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス106に接続されている。なお、必ずしもホストバス104、ブリッジ105および外部バス106を分離構成する必要はなく、一のバスにこれらの機能を実装してもよい。
入力装置108は、例えば、マウス、キーボード、タッチパネル、ボタン、マイク、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU101に出力する入力制御回路などから構成されている。情報処理装置10のユーザは、該入力装置108を操作することにより、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置109は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Display)装置およびランプなどの表示装置と、スピーカおよびヘッドホンなどの音声出力装置で構成される。出力装置109は、例えば、再生されたコンテンツを出力する。具体的には、表示装置は再生された映像データ等の各種情報をテキストまたはイメージで表示する。一方、音声出力装置は、再生された音声データ等を音声に変換して出力する。
ストレージ装置110は、本実施形態にかかる情報処理装置10の記憶部の一例として構成されたデータ格納用の装置であり、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含むことができる。ストレージ装置110は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置110は、ハードディスクを駆動し、CPU101が実行するプログラムや各種データを格納する。
ドライブ111は、記憶媒体用リーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ111は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体120に記録されている情報を読み出して、RAM103に出力する。
通信装置112は、例えば、通信網50に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置112は、無線LAN(Local Area Network)対応通信装置であっても、ワイヤレスUSB対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
〔3〕情報処理装置の機能構成
以上、情報処理装置10のハードウェア構成について説明した。次に、図3を参照して、情報処理装置10の機能構成について説明する。図3に示したように、情報処理装置10は、入力部152、抽出部154、記憶部156、選別部160、収集部162、算出部164、記録部166、作成部168、画像認識器170などを備える。
入力部152は、ユーザ操作に応じて、所定の概念を示す概念言語を入力する機能を有する。ここで、概念とは、ある言語に対するユーザ個人が持つ意図やイメージ、それを表現する情報群を意味する。本実施形態では、このようなユーザがイメージする概念を示す言語を概念言語という。概念言語は例えば、「桜」や「時計」などの文字情報である。ユーザは、上記した入力装置108を介して、「桜」や「時計」などイメージしている概念を示す概念言語を文字入力する。
抽出部154は、入力部152により入力された概念言語と、後述する記憶部156に記憶されている画像に関連している関連言語とが一致する場合に、関連言語に関連付けられている複数の画像を記憶部156から抽出する機能を有する。記憶部156には、複数の画像と各画像に関連する複数の関連言語とが関連付けられて、言語+画像データベース157として記憶されている。本実施形態では、記憶部156は、情報処理装置10に備えられている構成としたが、かかる例に限定されず、記憶部156を情報処理装置10とは別体の装置に備えられ、ネットワークを介して記憶部156に記憶されている情報を取得するようにしてもよい。
ここで、図4を参照して、言語+画像データベース157の内容について説明する。図4は、言語+画像データベース157の内容について説明する説明図である。例えば、図4に示したように、海や砂浜を含む画像201には、「海」、「沖縄」、「修学旅行」、「晴れ」、「水着」など、画像201に関連する複数の関連言語が紐付けられている。また、例えば、天体の画像202には、「銀河」、「星」、「宇宙」などの関連言語が紐付けられており、ケーキを含む画像203には、「ケーキ」、「銀座」、「セレブ」などの関連言語が紐付けられている。言語+画像データベース157に記憶されている画像や関連言語は、コンテンツ推薦者などにより設定、追加されてもよいし、ユーザ自らが設定、追加するようにしてもよい。
上記したように、抽出部154は、言語+画像データベース157に記憶されている複数の関連言語から、入力部152により入力された概念言語と一致する言語を検索する。そして、概念言語に一致した関連言語に関連付けられている画像群を抽出する。例えば、概念言語として「桜」が入力された場合には、関連言語に「桜」を含む画像が抽出される。「桜」を関連言語に含む画像としては、「桜の木」だけでなく、「桜もち」、「桜模様のワンピース」、「桜茶」なども考えられる。抽出部154は、記憶部156から抽出した複数の画像を選別部160に提供する。
選別部160は、抽出部154により提供された複数の画像から、概念言語の概念に適合する画像を選別する機能を有する。概念言語の概念に適合するとは、概念言語を入力したユーザがイメージしている概念に適合することである。例えば、概念言語として「桜」を入力した場合に、ユーザは「桜の木」をイメージしていたとしても、「桜」を関連言語に含む画像は「桜もち」、「桜模様のワンピース」など「桜の木」以外のものも含まれる。この場合、概念言語の概念に適合する画像は、「桜もち」の画像や「桜模様のワンピース」の画像などではなく、「桜の木」の画像となる。
また、選別部160は、ユーザ操作に応じて、抽出部154により抽出された複数の画像から概念言語の概念に適合する画像を選別するようにしてもよい。例えば、抽出部154により抽出された複数の画像を表示装置(図示せず)の表示画面に表示させ、ユーザが入力装置を介して複数の画像から概念言語の概念に適合する画像を選別するようにしてもよい。ユーザ操作による画像の選別は、概念言語の概念に適合するものと適合しないものとに分類することによって行ってもよい。
また、概念言語の概念に適合しないものを表示画面から削除することによって行われてもよい。また、ユーザ操作により、段階的に画像が選別されるようにしてもよい。例えば、ユーザ操作により、数枚の画像が選別されて、その画像の画像特徴量をもとに適切な画像を選別するようにしてもよい。そして、選別した画像をユーザに提示して、その画像のなかから再度ユーザ操作により適切な画像が選別されるようにしてもよい。このように、画像に対する概念との一致、不一致を複数回フィードバックするようにしてもよい。
例えば、ユーザは「桜の木」のみの画像をイメージして「桜」という概念言語を入力したとする。この場合、最初に選別された段階では、「桜の木」と桜の木以外の建物等が含まれる画像が選別されるが、複数回のフィードバックののち、「桜の木」のみの画像が選別されることとなる。上記のフィードバック機能は、SVM(Support vector machine)やBoosting等の機械学習を含む技術と装置とのインタラクションによって実現することができる。フィードバック機能の詳細については後で詳細に説明する。
ユーザ操作によりユーザがイメージする概念に一致するか一致しないかがフィードバックされることにより、選別部160は、よりユーザにとって適切な画像を選別することが可能となる。例えば、「桜」という文字情報だけでは、ユーザのイメージする概念が「桜の木」を意味することまで把握することができないが、「桜」に関連する画像を表示して選別させることにより、ユーザのイメージする概念をより明確に把握することが可能となる。選別部160は、選別した画像の情報を収集部162に提供する。また、選別部160は、選別した画像の情報を作成部168に提供する。作成部168は、選別部160により選別された概念言語の概念に適合する画像群から、所定の画像特徴量を認識可能な画像認識器170を作成する機能を有する。画像認識器170は、概念言語毎に作成される。画像認識器170は、複数の画像の画像特徴量を抽出して学習する。
例えば、画像認識器170は、「桜」の概念言語に適合する画像群から抽出された画像特徴量と、入力された画像の画像特徴量とを比較して、入力画像が「桜」の概念言語に適合するか否かを判定することが可能となる。すなわち、ユーザ操作により入力画像が選別されることを上記したが、複数画像を学習した画像認識器170を用いて入力画像を選別することも可能となる。ただし、入力画像を選別する前に、予めユーザ操作に応じて選別された所定の概念に適合する画像群を学習しておく必要がある。
収集部162は、選別部160により選別された概念言語の概念に適合する画像に関連付けられている関連言語を収集する機能を有する。収集部162は、画像にメタデータとして付加されている文字情報を収集してもよいし、言語+画像データベース157から該当画像に紐付けられている言語を収集してもよい。例えば、最終的に選別された画像が「桜の木」のみの画像であり、該画像に「さくら」、「4月」、「入学式」、「マクロモード」、「接写」等、「桜」の概念に直接的に結びつく言語だけでなく、直接的に結びつかない言語も含まれる。収集部162は、収集した関連言語を算出部164に提供する。
算出部164は、収集部162により収集された関連言語の言語群の言語特徴量を算出する機能を有する。算出部164は、収集部162により収集された関連言語の出現頻度に応じて言語特徴量を算出する。また、算出部164は、選別部160により概念言語に適合されない画像として選別された画像群に関連付けられた関連言語の出現頻度に応じて言語特徴量を算出するようにしてよい。
言語特徴量とは、収集部162により収集された言語群とその出現頻度とを用いて生成される言語特徴ベクトルを意味する。上記したように、言語特徴ベクトルは、フィードバックによって取り除かれた画像郡に関連付けられた言語群や、データベース中の全言語群における特定言語の出現頻度を鑑みながら行うことにより、より的確にユーザの概念を表すことが可能となる。言語群の中から重要語を取り出す方法としては、形態素解析やTF−IDFなどが用いられる。これらの方法による言語特徴量の作成については後で詳細に説明する。算出部164は、算出した言語特徴量を記録部166に提供する。
記録部166は、算出部164により提供された言語特徴量を、概念言語に対応付けて概念情報として記憶媒体に記録する機能を有する。さらに、記録部166は、概念言語に対応付けて、選別部160により選別された概念言語に関連する関連画像群と、収集部162により収集された関連言語群と、算出部164により算出された言語特徴量とを対応付けて概念情報として記憶媒体に記録するようにしてもよい。本実施形態では、概念情報データベース158を言語+画像データベースとともに記憶部156に記録するようにしたが、かかる例に限定されず、各データベースを別の記憶媒体に記録するようにしてもよい。
ここで、図5を参照して、概念情報データベース158に記憶される概念情報の内容について説明する。図5に示したように、ユーザ操作により入力された言語クエリ(概念言語)221に、概念に適合する画像群222と、画像群222に紐付けられている関連言語群223と、関連言語群223の言語特徴量224とが対応付けられて、ひとつの概念情報として記憶される。さらに、画像群222から作成される画像認識器170も関連付けて記憶される。上記したように、画像と画像に関連する関連言語とは、すでに言語+画像データベース157内であらかじめ関連付けて記憶されている。したがって、概念情報データベース158内では、言語+画像データベース157内の関連情報を用いてデータ管理するようにしてもよい。
また、本実施形態では、画像認識器170は、情報処理装置10内に有しているとしたが、情報処理装置10とは別体の装置に画像認識器170を有するようにしてもよい。この場合、情報処理装置10と別体の装置との間で、画像認識器170と概念情報との関連付けを行う必要がある。図3に戻り、情報処理装置10の機能構成の説明を続ける。
また、記録部166は、算出部164により算出された言語特徴量に応じて、概念言語を所定の概念地図上にマッピングして記録するようにしてもよい。ユーザのプロファイルとして、ユーザにより入力された概念言語を用いる場合、概念言語同士がどのような関係にあるかを把握する必要がある。例えば、概念言語間の距離を計算することにより、概念言語同士がどのような関係かを明確とすることができる。概念言語間の距離は、概念言語同士の距離を直接比較することにより算出できる。概念言語同士の距離を直接比較するとは、例えば、概念辞書等により表される言語の階層構造をもとに、階層の差を比較することである。
しかし、概念辞書等により表される言語の階層構造は、各ユーザの概念を反映しているものではないため、このような階層構造をもとに比較するのは適切ではない。そこで、本実施形態では、算出部164により算出された言語特徴量をもとに、概念言語同士の距離を計算することにより、各ユーザの概念が反映された距離計算を行う。そして、算出された概念同士の距離をもとに、概念言語同士の関連度が得られ、この関連度を概念地図上にマッピングすることができる。ここで、図6を参照して、概念地図上に表される概念言語の関連度について説明する。図6は、概念地図上に表される概念言語の関連度について説明する説明図である。
図6に示したように、例えば、「Orange」には、果物の「オレンジ」という概念と「オレンジ社」という概念が含まれているとする。それぞれの概念言語に対して言語特徴量が算出され、例えば、オレンジ社という概念を示す「Orange」には言語特徴量235のような言語特徴量が算出される。また、果物の「オレンジ」という概念を示す「Orange」には言語特徴量236のような言語特徴量が算出される。両者は、「Orange」という同じ文字列の言語であっても、言語特徴量235と言語特徴量236との関連度は低く、距離が離れているといえる。したがって、概念地図230上に表されたオレンジ社の「Orange」231と、果物の「Orange」は離れた位置にそれぞれマッピングされる。さらに、概念言語のマッピングの方法として、多次元尺度構成法などにより、視覚情報としてマッピングするようにしてもよい。
また、オレンジ社の概念を示す「Orange」231の付近には、Somy社の「Somy」、Bell社の「Bell」等企業の概念を表す言語がマッピングされる。また、果物のオレンジの概念を示す「Orange」232の付近には、「Apple」等果物の概念を表す言語がマッピングされる。このように、ユーザ操作により入力された概念言語の中で、同一の文字列の概念言語があったとしても、異なる概念を2つ以上含むものであれば、異なる概念毎に言語特徴量を得ることができる。また、それぞれ異なる概念として各ユーザのプロファイルに作成することが可能となる。以上、情報処理装置10の機能構成について説明した。
〔4〕情報処理装置におけるプロファイル作成処理の詳細
次に、図7を参照して、情報処理装置10におけるプロファイル作成処理の詳細について説明する。図7は、情報処理装置10におけるプロファイル作成処理の詳細を示すフローチャートである。図7に示したように、まず、ユーザ操作に応じて、入力部152により言語クエリ(概念言語)が入力される(S102)。そして、抽出部154は、ステップS102において、入力された言語クエリと一致する言語(関連言語)と関連付けられた画像群を検索する(S104)。
そして、ステップS104において検索された関連画像群をユーザに提示する(S106)。ステップS106においてユーザに提示する関連画像は、抽出部154により抽出されたすべての画像でもよいし、一部の画像であってもよい。そして、ユーザにより提示された画像群とユーザが示した概念とが一致しているか否かが判断される。選別部160は、ユーザ操作に応じて複数の画像が入力された言語クエリの概念に適合するか否かを判断する(S108)。ステップS108において、選別部160は、ユーザによる判断結果をもとに、よりユーザにとって適切な画像を検索する(S110)。ステップS110においては、複数の画像を言語クエリの概念に適合する画像と適合しない画像に分類する。
そして、検索した結果を再度ユーザに提示する(S106)。さらに、ユーザは、ステップS106において提示された画像から、ユーザがイメージする概念により適合した画像を選択する。このように、ユーザのインタラクションをもとに学習され、よりユーザにとって適切な画像が検索されることとなる。ステップS108において、適切な画像が得られるまで、ステップS106〜ステップS110の処理が繰り返される。ステップS106〜ステップS110のフィードバック処理により適切な画像を選別することが可能となる。
ここで、図8を参照して、SVMを用いたフィードバック処理について詳細に説明する。図8は、SVMを用いたフィードバック処理について説明する説明図である。まず、SVMの概要について説明する。SVMはいくつかのpositive sampleとnegative sampleを用いてデータ空間に識別境界面を張るアルゴリズムであり、この境界面はサポートベクターと呼ばれるサンプル群によって形成される。トレーニングデータがN個の入力ベクトルx,・・・,xとそれに対応するラベルt,・・・,tからなり、未知のデータ点xは、
Figure 2011018178
の符号によって分類されるとする。このとき、重みベクトルw及びバイアスパラメータbは、マージン最大化の基準から次の式を最適化することによって得られる。
Figure 2011018178
マージンとは、識別平面からサポートベクターまでの最短の距離を表し、これを最大化することで高い汎化性能を得ることができる。
式(1.2)は、ラグランジュ乗数とKKT条件の導入により、次の目的関数のαに対する最大化に書き換えられる。
Figure 2011018178
これらをもとに式(1.1)を書き直すと、
Figure 2011018178
となる。式(1.3)の最適化問題は、2次計画法を解くことによって得られ、αが求まれば、バイアスパラメータbを求めることができる。
適合フィードバックは、一度集まったデータをユーザが評価し、その評価をもとに分類を修正していく手法である。適合フィードバックによる学習及び分類は、“Selector”と“Learner”によって行われる。Selectorは、ひとつ前の学習及び分類をもとにユーザからフィードバックを受けるべきデータを決定し、Learnerは、受けたフィードバックをもとに再学習を行うものである。
ここで、図8を参照して、適合フィードバックによる画像分類について説明する。図8は、適合フィードバックによる画像分類について説明する説明図である。フィードバックの入力を、適合と不適合の2値に限った場合の適合フィードバックは次のような流れとなる。以下では、ユーザに分類対象画像群301が提示されて(Step202)、ユーザにより適合画像と不適合画像の選択がなされた後のフィードバック処理について説明する。
Selectorがフィードバックの対象となる画像をデータベース内からサンプリングし、ユーザに提示する(Step210)。そして、ユーザは提示された画像に対して、適合(positive)か不適合(negative)のフィードバックを与える(Step204)。その後、Learnerは、Step204において受けたフィードバックをトレーニングデータに加え、学習及び分類を行う(Step206)。ユーザは、Step206において得られた分類結果がユーザのイメージする概念に沿ったものであるかどうかの評価を行う(Step208)。分類結果が不十分であれば、フィードバックを続けるため再度Step210におけるサンプリングがなされ、新たに選択された画像がユーザに提示される(Step204)。
Step210でのSelectorによるサンプリングはMost Ambiguousなどの基準で行われる。Most AmbiguousはSVMによって引かれた識別境界面にもっとも近いデータをサンプリングするものであり、識別の曖昧さを減らすことができる。学習の行われていないインタラクション開始時は、言語検索によって得られた画像群がユーザに提示される。
上記適合フィードバックのLearnerにSVMを用いることで、ユーザ概念にマッチした画像群を集めることができる。画像群によって構築される画像識別器は、適合フィードバックの際に使用したSVMの識別器をそのまま用いても良いし、一度インタラクションが終了すれば、ユーザに対するレスポンス速度を考える必要がなくなるため、計算コストは高いがより強力なBoostingやBootstrapを用いた学習アルゴリズムを用いても良い。
以上、SVMを用いたフィードバック処理について説明した。図7に戻り、情報処理装置10におけるプロファイル作成処理の説明を続ける。ステップS108において、ユーザのイメージする概念に適合すると判定された場合には、収集部162は、フィードバック処理により選別された画像に関連付けられた言語情報を収集する(S112)。ステップS112において収集される言語群は、ユーザの入力した言語クエリには表れなかったものも含まれる。
ユーザの入力した言語クエリに表れなかった言語群は、ユーザの概念を適切に表すものといえる。これは、ユーザの概念を画像として表現することにより、ユーザの概念と画像とを結びつける言語と、コンテンツ作成者の概念と画像を結びつける言語が一致しなかったとしても、画像を通してそれらの概念と両者の言語とを結びつけることが可能となったことを示している。
そして、算出部164は、ステップS112において収集された言語情報から、言語特徴ベクトルを作成する(S114)。ここで、画像に紐付けられた関連言語群から言語特徴量を算出する方法について説明する。図7のステップS112では、既に行われた概念マッチにより、データベース内の画像はユーザの概念に沿った画像群と、そうでない画像群とに分類されている。また、分類された画像群は、個々の画像に関連付けられた言語群をともなっている。これらの情報をもとに言語特徴量を作成する手段のひとつとしてTF−IDF法が考えられる。
TF−IDF法は文書中に現れる単語に対し重要度の重み付けを行う手法である。重要度の重み付けは、文書中の特定単語の出現頻度を表すTF−Term Frequencyと、特定単語を含む文書の少なさを表すIDF−Inverse Document Frequencyによって計算される。
Figure 2011018178
ある文書における単語tの出現頻度をnとしたとき、tfi
Figure 2011018178
となり、idf
Figure 2011018178
となる。このとき{d|ti∈d}は単語tiを含む文書数、Dは全文書数を表し、idfは多くの文書に出現する単語の重要度を下げ、特定の文書にしか出現しない単語の重要度を上げる働きをしている。このようにtfidfは文書を特徴付ける単語の性質を、その文書内での出現頻度と、少ない文書にしか出現しないという2つの面から表現している。
次に、図9を参照して、本手法におけるTF−IDFの使用方法について説明する。図9は、TF−IDFの使用方法について説明する説明図である。まず、概念マッチにより図9のような画像分類が行われる。すなわち、概念1に属する画像群や、概念2に属する画像群や、どの概念にも属さない画像群に分類される。このとき、それぞれの画像群をひとつの文書とみなし、その画像群に関連付けられている関連言語群を文書に含まれる単語とみなす。これらの文書と単語の集合にTF−IDF法を用いることで、ユーザの各概念を特徴付ける単語は、各文書において大きい値のtfidfを持つことになる。各文書から得られた全単語のtfidf値wをベクトルとして保存することで、言語特徴量とすることができる。各特徴量同士の距離はユークリッド距離やコサイン距離によって計算することが可能である。
以上、言語特徴量を算出する方法について説明した。図7に戻り、プロファイル作成処理の説明を続ける。ステップS114において言語特徴ベクトルが作成された後、記録部166は、ユーザのプロファイルに図5に示した概念情報を追加する(S116)。ステップS116においては、図5に示した概念情報のすべてを記録してもよいし、言語クエリと言語特徴量のみ記録するようにしてもよい。また、図6に示した概念地図上に表される概念言語の関連度を記録するようにしてもよい。
本実施形態にかかる情報処理装置10によれば、ユーザ操作により所定の概念を示す概念言語が入力され、概念言語と記憶部156に記憶されている複数の画像に関連する関連言語とが一致する場合に、該関連言語に関連付けられている複数の画像を記憶部から抽出する。そして、ユーザ操作に応じて、抽出された複数の画像から概念言語の概念に適合する画像を選別する。選別された概念言語の概念に適合する画像に関連付けられている関連言語を収集して、収集された関連言語の言語群の言語特徴量を算出する。
このように、ユーザの概念を画像として表現することにより、ユーザの概念と画像とを結びつける言語と、コンテンツ作成者の概念と画像を結びつける言語が一致しなかったとしても、画像を通してそれらの概念と両者の言語とを結びつけることが可能となったことを示している。すなわち、画像を利用した装置とのインタラクションによるプロファイル作成により、各ユーザによって異なる言語と概念の隔たりを緩和することが可能となる。また、画像に付与された言語群を間接的に利用することにより、ユーザ概念に適合した言語特徴量を作成することが可能となる。また、作成した言語特徴量を用いて、ユーザの意図に沿った概念地図を作成することが可能となる。
〔5〕プロファイルの更新例
以上、情報処理装置10におけるプロファイル作成処理の詳細について説明した。次に、図10および図11を参照して、プロファイルの更新例について説明する。プロファイルの更新としては、ユーザの意識的な操作や、情報処理装置10による自動動作によって行われる。まず、図10を参照して、ユーザの意識的な操作によるプロファイルの更新について説明する。
ユーザの意識的な操作によるプロファイルの更新の1つには、クエリ言語に対する更新が挙げられる。例えば、すでにプロファイル上に存在するクエリ言語(概念言語)を更新する場合、プロファイル作成機能で示した画像へのフィードバックを通した装置とのインタラクションをもとに、関連画像が収集される。関連画像が収集され更新されると、関連画像に紐付く関連言語群も更新され、概念クエリ以下の情報が更新される。また、同一のクエリ言語に対して異なる概念が作成される場合には、同じクエリ言語を用いて新た概念情報を作成することにより、プロファイルが更新される。
また、複数のクエリ言語(概念言語)がプロファイル上に作成されている場合、図6に示した概念地図の更新をすることも考えられる。上記したように、概念地図は、言語特徴ベクトルに基づく距離計算により作成されている。概念地図作成時は、各特徴量における次元の重みは均等としている。そこで、ユーザ操作に応じて、概念地図に対し、各概念の位置関係を修復する場合、各特徴量における次元の重みを更新することにより地図および距離尺度の更新を実現できる。例えば、図10に示したように、重みの更新を実現する方法として、概念地図を二次元上に射影し、GUIを通してユーザが各概念の位置を操作(矢印402)し、操作後の位置関係を用いて重みを決定することが考えられる。
次に、図11を参照して、情報処理装置10によるプロファイルの更新について説明する。ユーザの操作を入力としない自動更新においては、プロファイル情報がユーザの意図しない方向へ更新されないように注意する必要がある。したがって、本実施形態では、クエリ言語や関連言語などの人によって解釈や言語同士の距離などが大幅に異なる情報は用いないものとする。以下では、クエリ言語に適合する画像から作成された画像認識器170を用いたプロファイルの更新について説明する。
図11に示したように、各概念を認識するための画像認識器170は、任意のタイミングで言語+画像データベース157内の画像を認識する。そして、画像認識器170に適合した画像および関連言語群410を収集する。図5に示したように、画像認識器170は、特定の概念と紐付けられているため、収集したデータがどの概念に関連するかがわかる。
これにより、既存の画像および関連言語群に、新たに収集した画像および関連言語群を追加し、言語特徴量の作成を行うことで、各クエリ言語に関連付けられた概念情報データベースの更新を行う。このような更新方法を用いることにより、ユーザの概念からはずれることなく、新たな言語を取り入れることが可能となる。なお、プロファイルの自動更新は、言語+画像データベース157が更新された際や、ユーザの指定したタイミングなどで行われるようにしてもよい。画像認識器170を用いてプロファイルを更新することにより、ユーザ概念に適した更新を行うことが可能となる。
〔6〕プロファイルの利用例
以上、プロファイルの更新例について説明した。次に、図12および図13を参照して、プロファイルの利用例について説明する。情報処理装置10により作成されたプロファイルの利用は、プロファイル上に作成された各概念に関連付けられた各種情報や、概念同士の距離を表した概念地図を用いて実現される。プロファイルを利用したサービス例として、検索補助や推薦サービス、コンテンツ作成補助などが考えられる。以下、各サービス例におけるプロファイルの利用例について説明する。
検索補助として利用する際には、例えば、ユーザにより入力されたクエリ言語に関連する関連語を提示することができる。これにより、ユーザが思い浮かべた概念を表す言語を表現できない場合でも、提示された関連語から適合する言語を選択することが可能となる。また、提示された関連語を複数用いることにより、検索対象を絞り込むことも可能となる。また、ユーザにより入力されたクエリ言語の言語特徴量をもとにした検索を実行することもできる。
さらには、作成された画像認識器170を介して、検索により得られた画像の認識結果を利用するようにしてもよい。また、ユーザにより入力されたクエリ言語に関連する概念情報データベース158が記憶されていなかった場合には、他の概念の関連言語としてクエリ言語が登録されていれば、その概念および関連語を提示することができる。
また、作成されたプロファイルを、コンテンツ等の推薦に利用することができる。図12は、プロファイルを利用した推薦について説明する説明図である。例えば、図12に示したように、まず、推薦したいコンテンツ501の言語特徴量502を算出する。そして、言語特徴量502が、各ユーザの概念地図上のどの位置に現れるかを算出する。例えば、ユーザAの概念地図503およびユーザCの概念地図505では、推薦したいコンテンツ501の近くに興味の対象となる概念があるため、ユーザAおよびユーザCにコンテンツ501を推薦する。また、ユーザBの概念地図503では、推薦したいコンテンツ501の近くに興味の対象となる概念がないため、ユーザBにコンテンツ501を推薦しない。このように、各ユーザの概念地図を利用することにより、コンテンツ等の推薦の対象となるユーザを的確に把握することが可能となる。
また、概念情報データベース158に記憶されている画像認識器170を利用して、画像認識器が反応したコンテンツを推薦の対象とするようにしてもよい。また、プロファイルをコンテンツの作成補助として用いることもできる。例えば、各ユーザの持つ概念の関連画像、関連言語を調査することにより、どのようなコンテンツを作成すれば、ユーザビリティを向上することができるのかを検討することが可能となる。
次に、図13を参照して、プロファイルの物理エージェントにおける利用について説明する。図13に示したように、例えば、ユーザにより「あれ」という言語が概念として登録されていたとする。例えば、「あれ」の概念は「リモコン」であることが登録されていうとする。この場合、ユーザが「あれ取って来て」という言葉を発した場合、物理エージェント511は、「あれ」の画像認識機を取得する。そして、物理エージェント511の付近にある認識対象を検索して、画像認識機によりリモコン515を認識してユーザの指示に応答することができる。作成されたプロファイルを特定の用途に限定されることなく利用することが可能となる。また、作成されたプロファイルを利用して、各ユーザの意図に沿った検索や推薦をはじめとする様々なサービスや情報を提供することができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、本明細書の情報処理装置10の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。すなわち、情報処理装置10の処理における各ステップは、異なる処理であっても並列的に実行されてもよい。
また、情報処理装置10などに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した情報処理装置10の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
10 情報処理装置
152 入力部
154 抽出部
156 記憶部
157 言語+画像データベース
158 概念情報データベース
160 選別部
162 収集部
164 算出部
166 記録部
168 作成部
170 画像認識器

Claims (15)

  1. 複数の画像と各画像に関連する複数の関連言語とが関連付けられており、
    所定の概念を示す概念言語を入力する入力部と、
    前記入力部により入力された前記概念言語と前記関連言語とが一致する場合に、前記関連言語に関連付けられている前記複数の画像を抽出する抽出部と、
    前記抽出部により抽出された前記複数の画像から、前記概念言語の概念に適合する画像を選別する選別部と、
    前記選別部により選別された前記概念言語の概念に適合する画像に関連付けられている関連言語を収集する収集部と、
    前記収集部により収集された関連言語の言語群の言語特徴量を算出する算出部と、
    を備える、情報処理装置。
  2. 前記選別部は、ユーザ操作に応じて、前記抽出部により抽出された前記複数の画像から、前記概念言語の概念に適合する画像を選別する、請求項1に記載の情報処理装置。
  3. 前記算出部は、前記収集部により収集された前記関連言語の出現頻度に応じて言語特徴量を算出する、請求項1に記載の情報処理装置。
  4. 前記算出部は、前記選別部により前記概念言語に適合されない画像として選別された画像群に関連付けられた関連言語の出現頻度に応じて言語特徴量を算出する、請求項3に記載の情報処理装置。
  5. 前記選別部により選別された前記概念言語の概念に適合する画像群から、所定の画像特徴量を認識可能な画像認識器を作成する作成部を備える、請求項1に記載の情報処理装置。
  6. 前記算出部により算出された前記言語特徴量を、前記概念言語に対応付けて概念情報として記憶媒体に記録する記録部を備える、請求項1に記載の情報処理装置。
  7. 前記記録部は、前記言語特徴量に応じて前記概念言語を所定の概念地図上にマッピングして記録する、請求項6に記載の情報処理装置。
  8. 前記記録部は、前記概念言語に、前記選別部により選別された画像を含む関連画像群と、前記収集部により収集された関連言語を含む関連言語群と、前記算出部により算出された前記言語特徴量とを対応付けて前記概念情報として前記記憶媒体に記録している、請求項6に記載の情報処理装置。
  9. 前記複数の画像に加えて、新たに複数の画像と各画像に関連する複数の関連言語とが関連付けられた場合、
    前記抽出部は、前記概念言語と一致する関連言語に関連付けられている前記複数の画像を抽出し、
    前記選別部は、前記概念言語の概念に適合する画像を新たに選別し、
    前記収集部は、前記概念言語の概念に適合する画像に関連付けられている関連言語を再収集し、
    前記算出部は、前記収集部により再収集された関連言語の言語群の言語特徴量を再算出する、請求項1に記載の情報処理装置。
  10. 前記選別部は、ユーザ操作に応じて、前記概念言語の概念に適合する画像を新たに選別する、請求項9に記載の情報処理装置。
  11. 前記選別部は、前記作成部により作成された画像認識器による画像認識度に応じて、前記概念言語の概念に適合する画像を新たに選別する、請求項9に記載の情報処理装置。
  12. ユーザ操作に応じて、前記記録部に記録されている前記言語特徴量に応じた前記概念言語の前記概念地図上のマッピングが変更された場合に、
    前記算出部は、前記更新された概念地図上の概念言語のマッピング位置に基づいて、前記概念言語の言語特徴量を再算出する、請求項7に記載の情報処理装置。
  13. 前記選別部は、前記作成部により作成された前記画像認識器による画像認識度に応じて、前記抽出部により抽出された前記複数の画像から前記概念言語の概念に適合する画像を選別する、請求項1に記載の情報処理装置。
  14. 所定の概念を示す概念言語を入力するステップと、
    前記入力された前記概念言語と複数の画像に関連付けられている関連言語とが一致する場合に、前記関連言語に関連付けられている前記複数の画像を抽出するステップと、
    前記抽出された前記複数の画像から、前記概念言語の概念に適合する画像を選別するステップと、
    前記選別された前記概念言語の概念に適合する画像に関連付けられている関連言語を収集するステップと、
    前記収集された関連言語の言語群の言語特徴量を算出するステップと、
    を含む、情報処理方法。
  15. コンピュータを、
    複数の画像と各画像に関連する複数の関連言語とが関連付けられており、
    所定の概念を示す概念言語を入力する入力部と、
    前記入力部により入力された前記概念言語と前記関連言語とが一致する場合に、前記関連言語に関連付けられている前記複数の画像を抽出する抽出部と、
    前記抽出部により抽出された前記複数の画像から、前記概念言語の概念に適合する画像を選別する選別部と、
    前記選別部により選別された前記概念言語の概念に適合する画像に関連付けられている関連言語を収集する収集部と、
    前記収集部により収集された関連言語の言語群の言語特徴量を算出する算出部と、
    を備える、情報処理装置として機能させるためのプログラム。
JP2009161970A 2009-07-08 2009-07-08 情報処理装置、情報処理方法およびプログラム Withdrawn JP2011018178A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009161970A JP2011018178A (ja) 2009-07-08 2009-07-08 情報処理装置、情報処理方法およびプログラム
US12/825,996 US20110010363A1 (en) 2009-07-08 2010-06-29 Information processing apparatus, information processing method, and program
CN2010102199365A CN101950288A (zh) 2009-07-08 2010-07-01 信息处理装置、信息处理方法及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009161970A JP2011018178A (ja) 2009-07-08 2009-07-08 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2011018178A true JP2011018178A (ja) 2011-01-27

Family

ID=43428277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009161970A Withdrawn JP2011018178A (ja) 2009-07-08 2009-07-08 情報処理装置、情報処理方法およびプログラム

Country Status (3)

Country Link
US (1) US20110010363A1 (ja)
JP (1) JP2011018178A (ja)
CN (1) CN101950288A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6116650B1 (ja) * 2015-11-17 2017-04-19 エヌ・ティ・ティ・コムウェア株式会社 学習支援システム、学習支援方法、学習支援装置、および学習支援プログラム
US10012831B2 (en) 2015-08-03 2018-07-03 Apple Inc. Optical monitoring of scan parameters

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150052136A1 (en) * 2013-08-19 2015-02-19 Qin Zhang Image Categorization Database and Related Applications
US7933859B1 (en) 2010-05-25 2011-04-26 Recommind, Inc. Systems and methods for predictive coding
US8533148B1 (en) * 2012-10-01 2013-09-10 Recommind, Inc. Document relevancy analysis within machine learning systems including determining closest cosine distances of training examples
US9652543B2 (en) 2014-12-22 2017-05-16 Microsoft Technology Licensing, Llc Task-oriented presentation of auxiliary content to increase user interaction performance
JP6402653B2 (ja) * 2015-03-05 2018-10-10 オムロン株式会社 物体認識装置、物体認識方法、およびプログラム
CN106156250A (zh) * 2015-04-28 2016-11-23 天脉聚源(北京)科技有限公司 一种搜索热点推荐方法及系统
JP6644141B2 (ja) * 2016-06-08 2020-02-12 シャープ株式会社 応答装置および応答装置の制御方法、制御プログラム
CN109359239A (zh) * 2018-09-06 2019-02-19 安徽华米信息科技有限公司 图片推荐方法及装置
US11132393B2 (en) * 2018-10-30 2021-09-28 International Business Machines Corporation Identifying expressions for target concept with images
JP7155074B2 (ja) * 2019-07-03 2022-10-18 富士フイルム株式会社 情報提案システム、情報提案方法、プログラムおよび記録媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6012069A (en) * 1997-01-28 2000-01-04 Dainippon Screen Mfg. Co., Ltd. Method and apparatus for retrieving a desired image from an image database using keywords
US7693825B2 (en) * 2004-03-31 2010-04-06 Google Inc. Systems and methods for ranking implicit search results
US7555478B2 (en) * 2006-12-05 2009-06-30 Yahoo! Inc. Search results presented as visually illustrative concepts
US9405830B2 (en) * 2007-02-28 2016-08-02 Aol Inc. Personalization techniques using image clouds
US20090287655A1 (en) * 2008-05-13 2009-11-19 Bennett James D Image search engine employing user suitability feedback
US8452793B2 (en) * 2008-09-30 2013-05-28 Yahoo! Inc. Query refinement based on user selections
KR100997541B1 (ko) * 2008-10-08 2010-11-30 인하대학교 산학협력단 신상품 추천문제 해결을 위한 내용기반 필터링과 협업 필터링을 혼합한 사용자 프로파일 기반 이미지 추천 방법 및 장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10012831B2 (en) 2015-08-03 2018-07-03 Apple Inc. Optical monitoring of scan parameters
JP6116650B1 (ja) * 2015-11-17 2017-04-19 エヌ・ティ・ティ・コムウェア株式会社 学習支援システム、学習支援方法、学習支援装置、および学習支援プログラム
JP2017091479A (ja) * 2015-11-17 2017-05-25 エヌ・ティ・ティ・コムウェア株式会社 学習支援システム、学習支援方法、学習支援装置、および学習支援プログラム

Also Published As

Publication number Publication date
US20110010363A1 (en) 2011-01-13
CN101950288A (zh) 2011-01-19

Similar Documents

Publication Publication Date Title
JP2011018178A (ja) 情報処理装置、情報処理方法およびプログラム
US20220075806A1 (en) Natural language image search
US20210182333A1 (en) Correlating image annotations with foreground features
US9495363B1 (en) System and method for search with the aid of images associated with product categories
CN106462399B (zh) 代码推荐
US7769771B2 (en) Searching a document using relevance feedback
US20190251471A1 (en) Machine learning device
US8001152B1 (en) Method and system for semantic affinity search
US20140229476A1 (en) System for Information Discovery & Organization
CN112738556B (zh) 视频处理方法及装置
CN103814351A (zh) 基于协同姿势的输入语言
CN107004025A (zh) 图像检索装置及检索图像的方法
CN111797622B (zh) 用于生成属性信息的方法和装置
US20220138439A1 (en) Multi-lingual tagging for digital images
JP2014112283A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2011248596A (ja) 画像入り文書の検索システム及び検索方法
CN106570196B (zh) 视频节目的搜索方法和装置
CN116662583B (zh) 一种文本生成方法、地点检索方法及相关装置
JPH11250106A (ja) 内容基盤の映像情報を利用した登録商標の自動検索方法
CN117435685A (zh) 文档检索方法、装置、计算机设备、存储介质和产品
JP7098502B2 (ja) 報告書作成装置、方法、およびプログラム
JP2010015394A (ja) リンク先提示装置およびコンピュータプログラム
US20230297621A1 (en) Identifying merchant data associated with multiple data structures
CN114357194B (zh) 种子数据的扩充方法、装置、计算机设备及存储介质
EP4386651A2 (en) Product identification assistance techniques in an electronic marketplace application

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20121002