JP2008292885A - 学習装置および学習方法、情報加工装置および情報加工方法、並びにプログラム - Google Patents

学習装置および学習方法、情報加工装置および情報加工方法、並びにプログラム Download PDF

Info

Publication number
JP2008292885A
JP2008292885A JP2007139993A JP2007139993A JP2008292885A JP 2008292885 A JP2008292885 A JP 2008292885A JP 2007139993 A JP2007139993 A JP 2007139993A JP 2007139993 A JP2007139993 A JP 2007139993A JP 2008292885 A JP2008292885 A JP 2008292885A
Authority
JP
Japan
Prior art keywords
processing
information
user
learning
processing information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007139993A
Other languages
English (en)
Other versions
JP5217250B2 (ja
Inventor
Kazutaka Ando
一隆 安藤
Tetsujiro Kondo
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007139993A priority Critical patent/JP5217250B2/ja
Priority to CN2008800177409A priority patent/CN101681447B/zh
Priority to US12/600,660 priority patent/US20100138369A1/en
Priority to PCT/JP2008/059767 priority patent/WO2008146827A1/ja
Priority to EP08764783.0A priority patent/EP2154637A4/en
Priority to KR1020097024413A priority patent/KR20100022958A/ko
Publication of JP2008292885A publication Critical patent/JP2008292885A/ja
Application granted granted Critical
Publication of JP5217250B2 publication Critical patent/JP5217250B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/80Creating or modifying a manually drawn or painted image using a manual input device, e.g. mouse, light pen, direction keys on keyboard
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】ユーザの操作の特徴が反映された情報を出力する。
【解決手段】コンテンツ加工部24は、ユーザの操作に応じて入力画像を加工し、その結果得られる出力画像を出力するのに必要な加工情報を生成する。加工情報記録部28には、ユーザによる操作の回数に応じた複数の加工情報が蓄積される。学習部30は、加工情報記録部28蓄積されている複数の加工情報を生徒データとし、教師データ取得部29が取得する教師データを用いた学習を行うことにより、ユーザの操作の特徴を表す予測係数を算出し、ユーザアルゴリズム記録部31に記憶させる。また、学習部30は、ユーザアルゴリズム記録部31に記憶されている予測係数と、加工情報記録部28に蓄積されている複数の加工情報とを用いて、所定の演算を行い、ユーザの操作の特徴が反映された加工情報を算出する。本発明は、例えば、画像処理装置に適用できる。
【選択図】図2

Description

本発明は、学習装置および学習方法、情報加工装置および情報加工方法、並びにプログラムに関し、特に、ユーザの操作の特徴が反映された情報を出力することができるようにした学習装置および学習方法、情報加工装置および情報加工方法、並びにプログラムに関する。
従来、例えば、ユーザの操作に応じて入力画像を加工し、その結果得られる出力画像を出力する画像処理装置がある。画像処理装置は、ユーザの操作に応じて、入力画像を加工するのに必要な加工情報を記録する記録モードと、記録済みの加工情報に基づいて入力画像を加工し、その結果得られる出力画像を出力する再生モードとを備えている。
例えば、記録モードにおいて、ユーザが、入力画像の被写体を拡大して表示させる操作をすると、画像処理装置は、その操作に応じて、被写体が拡大された出力画像を出力するとともに、入力画像上の出力画像に対応する領域を示す情報を加工情報として記録する。そして、再生モードにおいて、画像処理装置は、記録済みの加工情報が示す領域を入力画像から抽出し、被写体が拡大された出力画像を出力する。
図1は、画像処理装置の一例の構成を示すブロック図である。
図1において、画像処理装置11は、コンテンツ加工部12、加工情報記録再生部13、および表示部14から構成されている。また、図1の上側には、記録モード時の画像処理装置11が示されており、図1の下側には、再生モード時の画像処理装置11が示されている。
コンテンツ加工部12には、画像を記録しているDVD(Digital Versatile Disc)15から、図示しないドライブにより読み出された入力画像が入力(供給)される。コンテンツ加工部12は、その入力画像を加工し、その結果得られる出力画像を表示部14に出力する。
例えば、記録モード時に、ユーザが、表示部14に出力されている出力画像を視聴し、所望の出力画像が出力されるようにリモートコマンダ(図示せず)などを操作すると、コンテンツ加工部12には、ユーザの操作に応じた操作信号が供給される。そして、コンテンツ加工部12は、ユーザの操作に応じて、入力画像を加工し、出力画像を表示部14に出力する。
また、コンテンツ加工部12は、例えば、入力画像上の出力画像に対応する領域を示す情報を加工情報として生成し、その加工情報を加工情報記録再生部13に供給する。さらに、コンテンツ加工部12は、加工の対象となった入力画像のフレームを特定するための情報である特徴量を、加工情報記録再生部13に供給する。加工情報記録再生部13は、コンテンツ加工部12から供給される加工情報と特徴量とを対応付けて記録する。
一方、再生モード時に、コンテンツ加工部12は、再生の対象となる入力画像のフレームを特定する特徴量を加工情報記録再生部13に供給し、加工情報記録再生部13は、コンテンツ加工部12から供給された特徴量に対応付けられている加工情報をコンテンツ加工部12に供給する。そして、コンテンツ加工部12は、加工情報記録再生部13から供給される加工情報に基づいて、入力画像を加工し、出力画像を表示部14に出力する。
このように、画像処理装置11では、記録モードにおいて、ユーザの操作に応じた加工情報が記録され、再生モードにおいて、その加工情報に基づいて入力画像が加工されて、ユーザの操作に応じた出力画像が出力される。
そして、ユーザは、その出力画像を視聴し、その出力画像に満足しなければ、画像処理装置11を記録モードにして、所望の出力画像が出力されるような操作を再度行い、これにより、加工情報が更新される。そして、再生モードにおいて、画像処理装置11は、新たな加工情報に基づいて加工された出力画像を出力する。このように、ユーザは、所望の出力画像が出力されるような操作を繰り返して行い、その結果、画像処理装置11は、ユーザが満足する出力画像を出力することができる。
また、例えば、特許文献1には、記録媒体に記録されている高精細画像を再生するにあたり、ユーザ操作に応じて生成されるパラメータに基づいて、高精細画像の一部を抽出する画像処理を施し、高精細画像から抽出した画像をディスプレイに出力する装置が開示されている。
特開2006−270187号公報
ところで、画像処理装置11において、ユーザが満足する出力画像が出力されるまでには、ユーザが操作を繰り返して行う回数が多くなることがあり、少ない回数の操作で、ユーザの意図が反映され、ユーザが満足する出力画像、即ち、ユーザの操作の特徴が反映された出力画像を出力することが求められていた。
本発明は、このような状況に鑑みてなされたものであり、例えば、ユーザの操作の特徴が反映された出力画像を出力することができるようにするものである。
本発明の第1の側面の学習装置は、ユーザによる複数回の操作の履歴に基づいて、前記ユーザの操作の特徴を学習する学習装置であって、前記ユーザの操作に応じて、所定の入力情報を加工する加工手段と、前記加工手段により所定の入力情報が加工された結果得られる出力情報を出力するのに必要な加工情報を生成する生成手段と、前記ユーザによる操作の回数に応じた複数の前記加工情報を蓄積する蓄積手段と、前記蓄積手段に蓄積されている複数の加工情報を、学習の生徒となる生徒データとし、前記所定の入力情報に基づいて得られる所定の情報を、学習の教師となる教師データとした学習を行うことにより、前記ユーザの操作の特徴を表す予測係数を算出する学習手段とを備える。
本発明の第1の側面の学習方法またはプログラムは、ユーザによる複数回の操作の履歴に基づいて、前記ユーザの操作の特徴を学習する学習方法、または、ユーザによる複数回の操作の履歴に基づいて、前記ユーザの操作の特徴を学習する学習装置のコンピュータに実行させるプログラムであって、前記ユーザの操作に応じて、所定の入力情報を加工し、前記所定の入力情報が加工された結果得られる出力情報を出力するのに必要な加工情報を生成し、前記ユーザによる操作の回数に応じた複数の前記加工情報を、情報を蓄積する蓄積手段に蓄積し、前記蓄積手段に蓄積されている複数の加工情報を、学習の生徒となる生徒データとし、前記所定の入力情報に基づいて得られる所定の情報を、学習の教師となる教師データとした学習を行うことにより、前記ユーザの操作の特徴を表す予測係数を算出するステップを含む。
本発明の第1の側面においては、ユーザの操作に応じて、所定の入力情報が加工され、その結果得られる出力情報を出力するのに必要な加工情報が生成され、ユーザによる操作の回数に応じた複数の加工情報が蓄積手段に蓄積される。そして、蓄積手段に蓄積されている複数の加工情報を、学習の生徒となる生徒データとし、所定の入力情報に基づいて得られる所定の情報を、学習の教師となる教師データとした学習を行うことにより、ユーザの操作の特徴を表す予測係数が算出される。
本発明の第2の側面の情報加工装置は、所定の入力情報を加工し、その結果得られる出力情報を出力する情報加工装置であって、あらかじめ行われた学習により得られた予測係数を記憶する予測係数記憶手段と、前記ユーザの操作に応じて、前記所定の入力情報を加工する加工手段と、前記加工手段により所定の入力情報が加工された結果得られる前記出力情報を出力するのに必要な加工情報を生成する生成手段と、前記ユーザによる操作の回数に応じた複数の前記加工情報を蓄積する蓄積手段と、前記予測係数記憶手段に記憶されている予測係数と、前記蓄積手段に蓄積されている複数の加工情報とを用いて、所定の演算を行い、前記ユーザの操作の特徴が反映された加工情報を算出する演算手段とを備え、前記加工手段は、前記ユーザの操作の特徴が反映された加工情報に基づいて、前記所定の入力情報を加工する。
本発明の第2の側面の情報加工方法またはプログラムは、所定の入力情報を加工し、その結果得られる出力情報を出力する情報加工装置の情報加工方法、または、所定の入力情報を加工し、その結果得られる出力情報を出力する情報加工装置のコンピュータに実行させるプログラムであって、前記情報加工装置は、あらかじめ行われた学習により得られた予測係数を記憶する予測係数記憶手段と、情報を蓄積する蓄積手段とを備え、前記ユーザの操作に応じて、前記所定の入力情報を加工し、前記所定の入力情報が加工された結果得られる前記出力情報を出力するのに必要な加工情報を生成し、前記ユーザによる操作の回数に応じた複数の前記加工情報を、前記蓄積手段に蓄積し、前記予測係数記憶手段に記憶されている予測係数と、前記蓄積手段に蓄積されている複数の加工情報とを用いて、所定の演算を行い、前記ユーザの操作の特徴が反映された加工情報を算出し、前記ユーザの操作の特徴が反映された加工情報に基づいて、前記所定の入力情報を加工するステップを含む。
本発明の第2の側面においては、情報加工装置は、あらかじめ行われた学習により得られた予測係数を記憶する予測係数記憶手段と、情報を蓄積する蓄積手段とを備える。また、ユーザの操作に応じて、所定の入力情報を加工して出力情報を出力するのに必要な加工情報が生成され、ユーザによる操作の回数に応じた複数の加工情報が蓄積手段に蓄積される。そして、予測係数記憶手段に記憶されている予測係数と、蓄積手段に蓄積されている複数の加工情報とを用いて、所定の演算を行い、ユーザの操作の特徴が反映された加工情報が算出され、ユーザの操作の特徴が反映された加工情報に基づいて、所定の入力情報が加工される。
本発明の第1および第2の側面によれば、ユーザの操作の特徴が反映された情報を出力することができる。
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
本発明の第1の側面の学習装置は、ユーザによる複数回の操作の履歴に基づいて、前記ユーザの操作の特徴を学習する学習装置であって、
前記ユーザの操作に応じて、所定の入力情報を加工する加工手段(例えば、図2のコンテンツ加工部24)と、
前記加工手段により所定の入力情報が加工された結果得られる出力情報を出力するのに必要な加工情報を生成する生成手段(例えば、図2のコンテンツ加工部24)と、
前記ユーザによる操作の回数に応じた複数の前記加工情報を蓄積する蓄積手段(例えば、図2の加工情報記録部28)と、
前記蓄積手段に蓄積されている複数の加工情報を、学習の生徒となる生徒データとし、前記所定の入力情報に基づいて得られる所定の情報を、学習の教師となる教師データとした学習を行うことにより、前記ユーザの操作の特徴を表す予測係数を算出する学習手段(例えば、図2の学習部30)と
を備える。
また、本発明の第1の側面の学習装置は、
前記蓄積手段に蓄積されている複数の前記加工情報の値に基づいて、前記加工情報を、所定のクラスに分類するクラス分類手段(例えば、図7のクラス分類部41)
をさらに備えることができ、
前記学習手段は、前記クラス分類手段が分類したクラスごとに、前記生徒データと前記教師データと用いた学習を行う。
本発明の第1の側面の学習方法またはプログラムは、ユーザによる複数回の操作の履歴に基づいて、前記ユーザの操作の特徴を学習する学習方法、または、ユーザによる複数回の操作の履歴に基づいて、前記ユーザの操作の特徴を学習する学習装置のコンピュータに実行させるプログラムであって、
前記ユーザの操作に応じて、所定の入力情報を加工し(例えば、図10のステップS43)、
前記所定の入力情報が加工された結果得られる出力情報を出力するのに必要な加工情報を生成し(例えば、図10のステップS44)、
前記ユーザによる操作の回数に応じた複数の前記加工情報を、情報を蓄積する蓄積手段に蓄積し(例えば、図10のステップS47)、
前記蓄積手段に蓄積されている複数の加工情報を、学習の生徒となる生徒データとし、前記所定の入力情報に基づいて得られる所定の情報を、学習の教師となる教師データとした学習を行うことにより、前記ユーザの操作の特徴を表す予測係数を算出する(例えば、図8のステップS24)
ステップを含む。
本発明の第2の側面の情報加工装置は、所定の入力情報を加工し、その結果得られる出力情報を出力する情報加工装置であって、
あらかじめ行われた学習により得られた予測係数を記憶する予測係数記憶手段(例えば、図2のユーザアルゴリズム記録部31)と、
前記ユーザの操作に応じて、前記所定の入力情報を加工する加工手段(例えば、図2のコンテンツ加工部24)と、
前記加工手段により所定の入力情報が加工された結果得られる前記出力情報を出力するのに必要な加工情報を生成する生成手段(例えば、図2のコンテンツ加工部24)と、
前記ユーザによる操作の回数に応じた複数の前記加工情報を蓄積する蓄積手段(例えば、図2の加工情報記録部28)と、
前記予測係数記憶手段に記憶されている予測係数と、前記蓄積手段に蓄積されている複数の加工情報とを用いて、所定の演算を行い、前記ユーザの操作の特徴が反映された加工情報を算出する演算手段と(例えば、図2の学習部30)
を備え、
前記加工手段は、前記ユーザの操作の特徴が反映された加工情報に基づいて、前記所定の入力情報を加工する。
また、本発明の第2の側面の学習装置は、
前記蓄積手段に蓄積されている複数の前記加工情報の値に基づいて、前記加工情報を、所定のクラスに分類するクラス分類手段(例えば、図7のクラス分類部41)
をさらに備えることができ、
前記演算手段は、前記クラス分類手段により分類されたクラスごとに、前記予測係数と、前記加工情報とを用いた演算を行う。
本発明の第2の側面の情報加工方法またはプログラムは、所定の入力情報を加工し、その結果得られる出力情報を出力する情報加工装置の情報加工方法、または、所定の入力情報を加工し、その結果得られる出力情報を出力する情報加工装置のコンピュータに実行させるプログラムであって、
前記情報加工装置は、
あらかじめ行われた学習により得られた予測係数を記憶する予測係数記憶手段と、
情報を蓄積する蓄積手段と
を備え、
前記ユーザの操作に応じて、前記所定の入力情報を加工し(例えば、図10のステップS43)、
前記所定の入力情報が加工された結果得られる前記出力情報を出力するのに必要な加工情報を生成し(例えば、図10のステップS44)、
前記ユーザによる操作の回数に応じた複数の前記加工情報を、前記蓄積手段に蓄積し(例えば、図10のステップS47)、
前記予測係数記憶手段に記憶されている予測係数と、前記蓄積手段に蓄積されている複数の加工情報とを用いて、所定の演算を行い、前記ユーザの操作の特徴が反映された加工情報を算出し(例えば、図9のステップS33)、
前記ユーザの操作の特徴が反映された加工情報に基づいて、前記所定の入力情報を加工する(例えば、図9のステップS34)
ステップを含む。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
図2は、本発明を適用した画像処理装置の一実施の形態の構成例を示すブロック図である。
図2において、画像処理装置21は、入力部22、特徴量抽出部23、コンテンツ加工部24、加工情報記録再生部25、出力部26、ユーザ操作入力部27、加工情報記録部28、教師データ取得部29、学習部30、およびユーザアルゴリズム記録部31から構成される。
入力部22には、映像や音声などからなるコンテンツが記録されているDVD(Digital Versatile Disc)などのメディア32が装着される。そして、入力部22は、メディア32に記録されているコンテンツを読み出し、そのコンテンツの画像(以下、適宜、入力画像という)を、例えば、1フレームづつ、特徴量抽出部23およびコンテンツ加工部24に供給(入力)する。
特徴量抽出部23は、入力部22から供給される入力画像の各フレームを特定するための情報である特徴量を、入力画像から抽出する。
コンテンツ加工部24は、入力部22から供給される入力画像を加工し、その結果得られる出力画像を、出力部26に供給する。
例えば、コンテンツ加工部24には、ユーザの操作に応じた操作信号がユーザ操作入力部27から供給され、コンテンツ加工部24は、ユーザ操作入力部27からの操作信号に応じて、入力部22から供給される入力画像を加工し、出力画像を取得する。このとき、コンテンツ加工部24は、入力画像に対するユーザの操作に応じた情報であって、出力画像を取得するのに必要な情報である加工情報、例えば、入力画像上の出力画像に対応する領域(図2の入力画像上の破線で囲われた領域)の中心位置と大きさを示す情報を、入力画像のフレームごとに生成し、加工情報記録再生部25に供給する。
また、コンテンツ加工部24は、再生対象の入力画像に対応する加工情報を加工情報記録再生部25に要求し、その加工情報が加工情報記録再生部25から供給されると、加工情報記録再生部25からの加工情報に基づいて入力画像を加工し、その結果得られる出力画像を、出力部26に供給する。
加工情報記録再生部25は、入力画像の特徴量が特徴量抽出部23から供給されるとともに、その入力画像に対するユーザの操作に応じた加工情報がコンテンツ加工部24から供給されると、入力画像のフレームごとに、特徴量と加工情報とを対応付けて、加工情報記録部28に供給する。
また、加工情報記録再生部25は、入力画像の特徴量が特徴量抽出部23から供給されるとともに、その入力画像に対応する加工情報が加工情報記録再生部25から要求されると、特徴量抽出部23からの特徴量に対応付けられて記憶されている加工情報を、加工情報記録部28から読み出して、コンテンツ加工部24に供給する。
出力部26は、例えば、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などのディスプレイで構成されており、コンテンツ加工部24から供給される出力画像を表示する。
ユーザ操作入力部27は、図示しないスイッチボタンなどで構成されており、ユーザによって操作され、ユーザの操作に対応した操作信号を、コンテンツ加工部24に供給する。
加工情報記録部28は、加工情報記録再生部25から供給される特徴量と加工情報とを対応付けて記録する。なお、加工情報記録部28は、自身に記録されている特徴量および加工情報を可搬メディア33に出力し、記録させることができる。また、加工情報記録部28は、他の装置において取得された特徴量と加工情報が対応付けられて記録された可搬メディア33から、その特徴量および加工情報を読み出して記録することができる。
教師データ取得部29は、後述の図4を参照して説明するように、学習用のコンテンツが記録されたメディア32から学習用の教師データを読み出し、学習部30に供給する。
学習部30は、加工情報記録部28に記憶されている加工情報を、学習用の生徒データとし、教師データ取得部29から供給された学習用の教師データを用いて、所定の演算を行うことによって、ユーザの操作の特徴が反映された出力画像を出力するための加工情報(以下、適宜、ユーザに特化した加工情報という)を生成するための予測係数を算出する処理である学習処理を行う。学習部30は、学習処理の結果得られる予測係数(ユーザアルゴリズム)を、ユーザアルゴリズム記録部31に供給して記憶させる。
また、学習部30は、加工情報記録部28に記憶されている加工情報と、学習処理において取得した予測係数とを用いて、所定の演算を行うことによって、ユーザに特化した加工情報を生成する処理を行う。学習部30は、ユーザに特化した加工情報を、加工情報記録部28に供給して記憶させる。
ユーザアルゴリズム記録部31は、学習部30から供給される予測係数を記録する。なお、ユーザアルゴリズム記録部31は、自身に記録されている予測係数を、可搬メディア34に出力して記録させることができる。また、ユーザアルゴリズム記録部31は、他の装置において学習処理が行われた結果得られる予測係数が記録された可搬メディア34から、その予測係数を読み出して記録することができる。
以上のように構成される画像処理装置21では、例えば、学習用のコンテンツを用いて学習が行われた結果得られる予測係数が、ユーザアルゴリズム記録部31に記録される。また、任意のコンテンツの画像に対するユーザの操作に応じて得られる加工情報と、ユーザアルゴリズム記録部31に記録されている予測係数とを用いて、ユーザに特化した加工情報が生成され、その加工情報に基づいて加工された出力画像が出力される。
次に、図3は、図2の画像処理装置21において行われる処理を説明するフローチャートである。
例えば、ユーザが、画像処理装置21を購入したときなどに、学習用のコンテンツを再生させる操作を行うと処理が開始され、ステップS11において、学習処理が行われ、学習処理の処理後、ステップS12において、学習結果適用処理が行われる。
学習処理において、画像処理装置21は、学習用のコンテンツの画像に対するユーザの操作に基づいて、ユーザの操作が反映された加工情報を生成するための予測係数を、学習結果として取得する。なお、学習処理については、後述する図8のフローチャートを参照して説明する。
学習結果適用処理において、画像処理装置21は、ユーザが任意のコンテンツの画像に対して行った操作に応じた加工情報と、ステップS11での学習処理の結果得られた学習結果である予測係数とを用いて、ユーザに特化した加工情報を生成し、その加工情報に基づいて加工された出力画像を出力する。なお、学習結果適用処理については、後述する図9のフローチャートを参照して説明する。
ここで、図4を参照して、画像処理装置21において行われる学習処理で用いられる生徒データと教師データとの関係について説明する。
なお、学習用のコンテンツの画像として、図2に示すような入力画像、例えば、水平方向に移動する被写体が撮影された画像が用いられる例について説明する。このような学習用のコンテンツの画像を用いた学習処理では、例えば、教師データとして、入力画像上の座標であって、移動する被写体の中心の座標が用いられる。また、生徒データとして、入力画像上の座標であって、ユーザの操作に応じて移動する出力画像に対応する領域(例えば、図2の入力画像上の破線で囲われている領域)の中心の座標が用いられる。
図4において、横軸は、左から右に向かって、時刻の経過を示しており、縦軸は、入力画面上の水平方向の位置(座標)を示している。
図4には、学習用のコンテンツから読み出される教師データと、ユーザが学習用のコンテンツの画像に対する操作を3回繰り返したときに得られる3つの生徒データとが示されている。
即ち、軌跡L0は、教師データに対応し、被写体の中心の座標が描く軌跡を表している。軌跡L1乃至L3は、生徒データに対応し、出力画像に対応する領域の中心の座標が描く軌跡を表している。また、軌跡L1は、ユーザの1回目の操作により得られる生徒データに対応し、軌跡L2は、ユーザの2回目の操作により得られる生徒データに対応し、軌跡L3は、ユーザの3回目の操作により得られる生徒データに対応する。
一般に、ユーザが操作を繰り返すたびに、出力画像は、ユーザが意図する画像に近づいていく。従って、例えば、図4に示すように、時刻T1乃至T2の区間では、軌跡L1とL2との間に軌跡L3が存在することより、ユーザが意図する出力画像の中心の位置は、軌跡L1とL2との間にあると考えられる。また、時刻T2乃至T3の区間では、軌跡L1より上にある軌跡L2よりも上に軌跡L3が存在することより、ユーザが意図する出力画像の中心の位置は、軌跡L3よりも上にあると考えられる。
即ち、図4に示すように、ユーザが意図する出力画像の中心の位置は、ユーザが操作を繰り返すに従い、軌跡L0に近づいている。従って、ユーザが操作を繰り返すことにより得られる学習データと、教師データとを用いた学習処理により、ユーザが意図する出力画像の中心の位置を求めることができる予測係数を算出することができる。
次に、図5は、図4で説明したような学習用のコンテンツを用いて行われた実験の結果得られた生徒データと、その学習用のコンテンツの教師データを示す図である。
図5では、ユーザが、学習用のコンテンツの画像に対する操作を6回繰り返したときに得られる6つの生徒データが示されている。また、図5において、縦軸の下側が、入力画面の左側に対応し、縦軸の上側が入力画面の右側に対応する。
次に、図6は、図5のある時刻(フレーム)における生徒データについての、水平方向の位置と、垂直方向の位置との関係を示す図である。
図6では、ユーザが、学習用のコンテンツの画像に対する操作を4回繰り返したときに得られる4つの生徒データが示されている。
図5および図6に示すように、ユーザが操作を繰り返すに従い、生徒データは、教師データに近づいていく傾向があることがわかる。
図2の学習部30では、このような教師データと生徒データとを用いて、ユーザに特化した加工情報を生成するための予測係数が算出される。
次に、図7は、図2の学習部30の構成例を示すブロック図である。
図7において、学習部30は、クラス分類部41および予測処理部42から構成される。
クラス分類部41は、加工情報記録部28に記録されている加工情報を読み出し、加工情報を分類するためのクラス番号を算出して、予測処理部42に供給する。
クラス分類部41は、加工情報を、その値に応じてソートし、ソートされた順番で、所定の演算を行って、クラス番号を算出する。
例えば、加工情報として、図4を参照して説明したような、ユーザの操作に応じて移動する出力画像に対応する領域の中心の座標を用い、ユーザが操作を4回行ったときに得られる加工情報(例えば、ユーザが、操作を4回以上行ったときには、直近の4回の操作から得られる加工情報)を用いてクラス番号を算出する例について説明する。
ある時刻(フレーム)において、ユーザの1回目の操作により得られた座標がA0であり、ユーザの2回目の操作により得られた座標がA1であり、ユーザの3回目の操作により得られた座標がA2であり、ユーザの4回目の操作により得られた座標がA3であったとする。そして、これらの座標を、その大きさに応じてソートした結果、操作履歴の順番が、a0番目のデータ、a1番目のデータ、a2番目のデータ、a3番目のデータとなったとする。この場合、クラス番号Cは、次の式(1)に従って求められる。
Figure 2008292885
・・・(1)
具体的には、ある時刻(フレーム)において、ユーザの1回目の操作により得られた座標が824であり、ユーザの2回目の操作により得られた座標が756であり、ユーザの3回目の操作により得られた座標が540であり、ユーザの4回目の操作により得られた座標が493であったとする。この場合、これらの座標を、その大きさに応じてソートした結果、操作履歴の順番は、ユーザの1回目の操作がa0となり、ユーザの2回目の操作がa1となり、ユーザの3回目の操作がa2となり、ユーザの4回目の操作がa3となるので、クラス番号Cは、次の式(2)に示す値となる。
Figure 2008292885
・・・(2)
また、例えば、他の時刻(フレーム)において、ユーザの1回目の操作により得られた座標が685であり、ユーザの2回目の操作により得られた座標が852であり、ユーザの3回目の操作により得られた座標が346であり、ユーザの4回目の操作により得られた座標が523であったとする。この場合、これらの座標を、その大きさに応じてソートした結果、操作履歴の順番は、ユーザの2回目の操作がa0となり、ユーザの1回目の操作がa1となり、ユーザの4回目の操作がa2となり、ユーザの3回目の操作がa3となるので、クラス番号Cは、次の式(3)に示す値となる。
Figure 2008292885
・・・(3)
クラス分類部41は、このようにしてクラス番号を算出し、予測処理部42に供給する。
予測処理部42は、学習処理において、クラス分類部41がクラス番号を求めるのに用いた加工情報と同一の加工情報を、加工情報記録部28から読み出して学習データとし、クラス分類部41から供給されるクラス番号ごとに、その学習データと、教師データ取得部29から供給される教師データとを用いて、所定の予測演算を行って予測係数を算出し、ユーザアルゴリズム記録部31に記憶させる。
また、予測処理部42は、学習結果適用処理において、ユーザが任意のコンテンツの画像に対して行った操作に応じた加工情報を加工情報記録部28から読み出し、その加工情報からクラス分類部41が求めたクラス番号ごとに、その加工情報と、ユーザアルゴリズム記録部31に記憶されている予測係数とを用いて、所定の予測演算を行ってユーザに特化した加工情報を生成し、加工情報記録部28に記憶させる。
ここで、予測処理部42が、ユーザに特化した加工情報(以下、適宜、予測値という)を算出するのに用いる所定の予測演算として、例えば、線形1次予測演算を採用することとすると、予測値yは、次の線形1次式によって求められることになる。
Figure 2008292885
・・・(4)
但し、式(4)において、xnは、予測値yについての予測タップを構成する、n番目(時刻)(フレーム)の加工情報を表し、wnは、n番目の予測タップの値と乗算されるn番目の予測係数を表す。なお、式(4)では、予測タップが、N個の加工情報x1,x2,・・・,xNで構成されるものとしてある。
ここで、予測値yは、式(4)に示した線形1次式ではなく、2次以上の高次の式によって求めるようにすることも可能である。
いま、予測値の第k番目(時刻)(フレーム)の教師データをykと表すとともに、式(4)によって得られるその教師データykの予測値をyk'と表すと、その予測誤差ekは、次式で表される。
Figure 2008292885
・・・(5)
いま、式(5)の予測値yk'は、式(4)にしたがって求められるため、式(5)のyk'を、式(4)にしたがって置き換えると、次式が得られる。
Figure 2008292885
・・・(6)
但し、式(6)において、xn,kは、第k番目の予測値についての予測タップを構成するn番目の加工情報を表す。
式(6)(または式(5))の予測誤差ekを0とする予測係数wnが、予測値を予測するのに最適なものとなるが、予測値のすべての時刻について、そのような予測係数wnを求めることは、一般には困難である。
そこで、予測係数wnが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適な予測係数wnは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。
Figure 2008292885
・・・(7)
但し、式(7)において、Kは、教師データykと、その教師データykについての予測タップを構成する加工情報x1,k,x2,k,・・・,xN,kとのセットのサンプル数(予測係数wnを求める学習に用いる学習用サンプルの数)を表す。
式(7)の自乗誤差の総和Eの最小値(極小値)は、式(8)に示すように、総和Eを予測係数wnで偏微分したものを0とするwnによって与えられる。
Figure 2008292885
・・・(8)
そこで、上述の式(6)を予測係数wnで偏微分すると、次式が得られる。
Figure 2008292885
・・・(9)
式(8)と(9)から、次式が得られる。
Figure 2008292885
・・・(10)
式(10)のekに、式(6)を代入することにより、式(10)は、式(11)に示す正規方程式で表すことができる。
Figure 2008292885
・・・(11)
式(11)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、予測係数wnについて解くことができる。
学習処理では、教師データykと、その教師データykについての予測タップを構成する加工情報x1,k,x2,k,・・・,xN,kとのセットを、学習用サンプルとして多数用意し、その学習用サンプルを用いて、式(11)の正規方程式をクラスごとにたてて解くことにより、最適な予測係数(ここでは、自乗誤差の総和Eを最小にする予測係数)wnが、クラスごとに求められる。
そして、学習結果適応処理では、その予測係数を用いた式(4)の予測演算を行うことによって、加工情報から予測値、即ち、ユーザに特化した加工情報が求められる。
次に、図8は、図3のステップS11における学習処理を説明するフローチャートである。
ステップS21において、画像処理装置21では、学習用のコンテンツの画像に対するユーザの操作に応じた加工情報を記録する加工情報記録処理が行われる。加工情報記録処理では、ユーザの操作に応じて加工された出力画像が出力部26に出力されるとともに、その出力画像を取得するのに必要な加工情報が加工情報記録部28に記録される。
ステップS21の加工情報取得処理の処理後、処理はステップS22に進み、画像処理装置21では、ユーザの操作に応じて、ユーザが、ステップS21の加工情報取得処理で得られた加工情報により加工された出力画像に満足したか否かが判定され、ユーザが出力画像に満足したと判定されるまで、ステップS21の加工情報取得処理が繰り返して行われる。
ステップS22において、ユーザが出力画像に満足したと判定された場合、処理はステップS23に進み、教師データ取得部29は、学習用のコンテンツが記録されたメディア32から学習用の教師データを読み出して、学習部30に供給し、処理はステップS24に進む。
ステップS24において、学習部30は、ステップS21の加工情報取得処理で加工情報記録部28に記録された加工情報を読み出し、その加工情報を生徒データとし、ステップS23で教師データ取得部29から供給された教師データを用いて、上述したような予測演算を行って、予測係数を算出する。
ステップS24の処理後、処理はステップS25に進み、学習部30は、ステップS21の加工情報取得処理で加工情報記録部28に記録された加工情報と、ステップS24で算出した予測係数とを用いて、上述したような予測演算を行って、ユーザに特化した加工情報を生成する。そして、学習部30は、ユーザに特化した加工情報と、その加工情報により加工される入力画像を特定する特徴量と対応付けて、加工情報記録部28に記録し、処理はステップS26に進む。
ステップS26において、加工情報記録再生部25は、ステップS25で学習部30が加工情報記録部28に記録したユーザに特化した加工情報を読み出して、コンテンツ加工部24に供給する。コンテンツ加工部24は、加工情報記録再生部25から供給されたユーザに特化した加工情報を用いて入力画像を加工し、その結果得られる出力画像を出力部26に出力する。
ステップS26の処理後、処理はステップS27に進み、画像処理装置21では、ユーザの操作に応じて、ユーザが学習結果に満足したか否か、即ち、ステップS25での予測演算の結果得られた加工情報により加工され、ステップS26で出力される出力画像に、ユーザが満足したか否かを判定する。
ステップS27において、ユーザが学習結果に満足したと判定された場合、処理はステップS28に進み、一方、ユーザが学習結果に満足したと判定されなかった場合、処理はステップS21に戻り、以下、同様の処理が繰り返される。
ステップS28において、学習部30は、ステップS24で算出した予測係数をユーザアルゴリズム記録部31に記憶させ、学習処理は終了される。
次に、図9は、図3のステップS12における学習結果適用処理を説明するフローチャートである。
ステップS31において、画像処理装置21では、任意のコンテンツの画像に対するユーザの操作に応じた加工情報を記録する加工情報記録処理が行われる。加工情報記録処理では、ユーザの操作に応じて加工された出力画像が出力部26に出力されるとともに、その出力画像を取得するのに必要な加工情報が加工情報記録部28に記録される。
ステップS31の処理後、処理はステップS32に進み、画像処理装置21では、あらかじめ設定されている規定回数の加工情報が加工情報記録部28に記録されたか否か、または、ユーザの操作に応じて、ユーザが、ステップS31の加工情報取得処理で得られた加工情報により加工された出力画像に満足したか否かが判定され、規定回数の加工情報が加工情報記録部28に記録されたと判定されるまで、または、ユーザが出力画像に満足したと判定されるまで、ステップS31の加工情報記録処理が繰り返して行われる。
ステップS32において、規定回数の加工情報が加工情報記録部28に記録されたと判定された場合、または、ユーザが出力画像に満足したと判定された場合、処理はステップS33に進み、学習部30は、ステップS31の加工情報取得処理で加工情報記録部28に記録された加工情報を読み出し、その加工情報と、ユーザアルゴリズム記録部31に記憶されている予測係数とを用いて、上述したような予測演算を行って、ユーザに特化した加工情報を生成する。そして、学習部30は、ユーザに特化した加工情報と、その加工情報により加工される入力画像を特定する特徴量と対応付けて、加工情報記録部28に記録する。
ステップS33の処理後、処理はステップS34に進み、加工情報記録再生部25は、ステップS33で学習部30が加工情報記録部28に記録したユーザに特化した加工情報を読み出して、コンテンツ加工部24に供給する。コンテンツ加工部24は、加工情報記録再生部25から供給されたユーザに特化した加工情報を用いて入力画像を加工し、その結果得られる出力画像を出力部26に出力して、処理はステップS35に進む。
ステップS35において、画像処理装置21では、ユーザの操作に応じて、ユーザが、ユーザに特化した加工情報に基づいて入力画像が加工されて得られた出力画像に満足したか否かが判定される。
ステップS35において、ユーザが、ユーザに特化した加工情報に基づいて入力画像が加工されて得られた出力画像に満足したと判定された場合、処理はステップS36に進み、画像処理装置21では、再生の対象となっているコンテンツと、ステップS33でユーザ加工情報記録部28に記録されたユーザに特化した加工情報との対応付けが行われる。これにより、ユーザが、このコンテンツを次回再生するときに、ユーザに特化した加工情報を用いて、入力画像の加工が行われる。
一方、ステップS35において、ユーザが、ユーザに特化した加工情報に基づいて入力画像が加工されて得られた出力画像に満足していないと判定された場合、処理はステップS37に進み、画像処理装置21では、ユーザの操作に応じて、ユーザが操作を再度行って加工情報をさらに蓄積させるか否か、即ち、加工情報記録処理を再度行うか否かが判定される。
ステップS37において、加工情報記録処理を再度行わないと判定された場合、処理はステップS38に進み、一方、加工情報記録処理を再度行うと判定された場合、処理はステップS31に戻り、以下、同様の処理が繰り返される。
ステップS38において、画像処理装置21では、再生の対象となっているコンテンツと、加工情報記録部28に記録されている加工情報のうち、例えば、ユーザの最後の操作に応じた加工情報との対応付けが行われる。これにより、ユーザが、このコンテンツを次回再生するときに、ユーザの最後の操作に応じた加工情報を用いて、入力画像の加工が行われる。
ステップS36またはS38の処理後、学習結果適用処理は終了される。
次に、図10は、図8のステップS21、または図9のステップS31における加工情報記録処理を説明するフローチャートである。なお、図8のステップS21においては、学習用のコンテンツの画像に対して加工情報記録処理が行われ、図9のステップS32においては、任意のコンテンツの画像に対して加工情報記録処理が行われる。
ステップS41において、メディア32に記録されている再生対象のコンテンツの再生が開始され、入力部22は、メディア32からコンテンツの画像を読み出して、コンテンツ加工部24への入力画像の供給を開始する。
ステップS41の処理後、処理はステップS42に進み、コンテンツ加工部24は、ユーザの操作があったか否か、即ち、ユーザ操作入力部27からユーザの操作に応じた操作信号が供給されたか否かを判定する。
ステップS42において、コンテンツ加工部24が、ユーザの操作があったと判定した場合、処理はステップS43に進み、コンテンツ加工部24は、ユーザの操作に応じて、即ち、ユーザ操作入力部27から供給される操作信号に応じて、入力部22から供給される入力画像を加工し、出力画像を取得する。
ステップS43の処理後、処理はステップS44に進み、コンテンツ加工部24は、ステップS43で取得した出力画像の加工情報を生成し、その加工情報を加工情報記録再生部25に供給して、処理はステップS45に進む。
ステップS45において、コンテンツ加工部24は、ステップS43で取得した出力画像を出力部26に出力し、出力部26は、その出力画像を表示して、処理はステップS46に進む。
ステップS46において、特徴量抽出部23は、ステップS43でコンテンツ加工部24が加工した入力画像を特定する特徴量を、その入力画像から抽出し、その特徴量を加工情報記録再生部25に供給して、処理はステップS47に進む。
ステップS47において、加工情報記録再生部25は、ステップS44でコンテンツ加工部24から供給された加工情報と、ステップS46で特徴量抽出部23から供給された特徴量とを対応付けて加工情報記録部28に供給して記憶させる。
ステップS47の処理後、処理はステップS48に進み、コンテンツ加工部24は、ステップS41で再生が開始されたコンテンツの再生が終了したか否か、即ち、コンテンツの全ての画像が供給されたか否かを判定する。
ステップS48において、コンテンツ加工部24が、コンテンツの再生が終了していないと判定した場合、処理はステップS42に戻り、以下、同様の処理が繰り返される。
一方、ステップS42において、コンテンツ加工部24が、ユーザの操作がなかったと判定した場合、処理はステップS49に進む。
ステップS49において、コンテンツ加工部24は、直前のステップS44で生成した加工情報に基づいて、入力画像を加工し、出力画像を取得する。なお、ステップS41でコンテンツの再生を開始してから、ユーザによる操作が行われるまでは、コンテンツ加工部24は、デフォルトの加工情報、即ち、入力画像と同一の出力画像を取得するような加工情報に基づいて、出力画像を取得する。
ステップS49の処理後、処理はステップS45に進み、以下、上述した処理が行われる。なお、この場合、ステップS45乃至S47では、ステップS49でコンテンツ加工部24が取得した出力画像、および、その出力画像の取得に用いられた加工情報が用いられる。
一方、ステップS48において、コンテンツ加工部24が、コンテンツの再生が終了したと判定した場合、処理は終了される。
以上のように、画像処理装置21では、ユーザの操作に応じた加工情報と、教師データとを用いた学習により、ユーザの操作の特徴が反映された出力画像を出力するための加工情報を生成するための予測係数を取得することができる。
そして、その予想係数と、ユーザの操作に応じた加工情報とを用いた演算により、ユーザに特化した加工情報を取得することができ、このユーザに特化した加工情報を用いて入力画像を加工することで、ユーザの操作の特徴が反映された出力画像、即ち、ユーザが意図する出力画像を出力することができる。
即ち、ユーザの操作に応じた加工情報を用いてのみ、入力画像を加工していた場合には、ユーザが満足する出力画像を出力するまでには、ユーザは、操作を多数の回数繰り返さなければならなかったが、ユーザに特化した加工情報を用いることにより、ユーザは、従来よりも少ない回数の操作を繰り返すだけで、ユーザが満足する出力画像を得ることができる。さらに、ユーザに特化した加工情報を用いることで、ユーザの操作に応じた加工情報を用いただけでは得られないような、より高い精度の出力画像を得ることができる。
また、ユーザに特化した加工情報を生成するための予測係数を、ユーザの複数回の操作(操作履歴)を用いた学習により求めることで、単に、ユーザにより選択または入力されたパラメータなどを用いて、予測係数を求める場合よりも、ユーザの意図をより正確に推測することができる。また、このように、学習により予測係数を求めることにより、全自動処理を全体に配布することなく、より精度の高い予測係数を得ることができる。また、全自動処理が搭載された装置より、安価な装置で、予測係数を求めることができるとともに、処理に対するロバスト性が高い予測係数を求めることができる。
なお、本発明は、画像処理装置21の他、例えば、ユーザの操作に応じて、例えば、所定の動作を繰り返して行うクレーンなどの機器を制御する制御情報を加工する情報処理装置に適用することができる。
即ち、図11乃至13は、本発明を適用した情報処理装置の一実施の形態の構成例を示すブロック図である。
図11乃至13において、情報処理装置51は、加工情報記録部28、ユーザアルゴリズム記録部31、クラス分類部41、予測処理部42、機器制御部52、および制御対象機器53から構成される。なお、図11乃至13では、図2の画像処理装置21と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
即ち、図11乃至13の情報処理装置51は、加工情報記録部28、ユーザアルゴリズム記録部31、クラス分類部41、および予測処理部42を備える点で、図2の画像処理装置21と共通する。但し、情報処理装置51は、機器制御部52および制御対象機器53を備える点で、画像処理装置21と異なっている。
機器制御部52には、ユーザの操作に応じた加工情報が供給され、機器制御部52は、ユーザの操作に応じた加工情報に基づいて、制御対象機器53を制御する制御情報を生成し、制御対象機器53に供給する。
また、機器制御部52には、学習により得られた予測係数と、ユーザの操作に応じた加工情報とを用いた演算により求められるユーザに特化した加工情報が、予測処理部42から供給される。機器制御部52は、ユーザに特化した加工情報に基づいて、制御対象機器53を制御する制御情報を生成し、制御対象機器53に供給する。
制御対象機器53は、例えば、クレーンを用いたゲーム機器や、実物のクレーン重機などであり、機器制御部52から供給される制御情報に従って動作する。
このように構成されている情報処理装置51では、図11に示すように、ユーザの操作に応じた加工情報が、機器制御部52と加工情報記録部28に供給される。加工情報記録部28は、その加工情報を蓄積し、機器制御部52は、その加工情報に基づいて、制御対象機器53を制御する制御情報を生成して制御対象機器53に供給し、制御対象機器53は、機器制御部52からの制御情報に従って動作する。
そして、加工情報記録部28に、所定の回数の加工情報が蓄積されると、図12に示すように、あらかじめ用意された教師データ(例えば、熟練した操作者の操作に応じた加工情報)と、加工情報記録部28に蓄積された加工情報と、クラス分類部41が加工情報記録部28に蓄積された加工情報から求めたクラス番号とが、予測処理部42に供給される。予測処理部42は、上述したような予測演算を行って、ユーザに特化した加工情報を生成するための予測係数を生成し、ユーザアルゴリズム記録部31に記憶させる。
その後、予測処理部42は、ユーザアルゴリズム記録部31に記録されている予測係数と、加工情報記録部28に記録されている加工情報とを用いて、上述したような予測演算を行って、ユーザに特化した加工情報を生成する。そして、図13に示すように、予測処理部42は、ユーザに特化した加工情報を機器制御部52に供給する。機器制御部52は、ユーザに特化した加工情報に基づいて、制御対象機器53を制御する制御情報を生成して、制御対象機器53に供給し、制御対象機器53は、制御情報に従って動作する。
また、ユーザの操作に従って、機器制御部52に供給される加工情報を切り替えることができ、加工情報記録部28に記憶されている加工情報を機器制御部52に供給することもできる。
さらに、本発明は、画像処理装置21や情報処理装置51の他、例えば、自動車や、飛行機、無線コントロール玩具(いわゆる、ラジコン)、家電など、ユーザの操作に応じた加工情報を蓄積することができる装置に適用することができる。
なお、学習処理において用いられる教師データとしては、学習用のコンテンツから読み出す他、例えば、教師データ取得部29が、入力画像の被写体をトラッキングすることにより求められる座標を用いてもよい。
また、本実施の形態においては、最小自乗法を利用した学習についての説明をしたが、最小自乗法を利用した学習の他、例えば、ニューラルネットワークを利用した学習を用いることができる。
例えば、ニューラルネットワークを利用した学習では、ユーザの操作に応じた加工情報と、学習用の教師データとを用いて、非線形の伝達関数を利用した演算を行うことにより、ニューラルネットワークの各ノードの結合の強度を表す結合係数が求められる。そして、この結合係数と、ユーザの操作に応じた加工情報とを用いて、非線形の伝達関数を利用した演算を行うことで、ユーザに特化した加工情報が求められる。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図14は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、キーボード、マウス、マイクロホンなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107、ハードディスクや不揮発性のメモリなどよりなる記憶部108、ネットワークインタフェースなどよりなる通信部109、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア111を駆動するドライブ110が接続されている。
以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU101)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア111に記録して、あるいは、ローカルエリアネットワーク、インタネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア111をドライブ110に装着することにより、入出力インタフェース105を介して、記憶部108にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。その他、プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
なお、上述のフローチャートを参照して説明した各処理は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。また、プログラムは、1のCPUにより処理されるものであっても良いし、複数のCPUによって分散処理されるものであっても良い。
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
従来の画像処理装置の一例の構成を示すブロック図である。 本発明を適用した画像処理装置の一実施の形態の構成例を示すブロック図である。 画像処理装置21において行われる処理を説明するフローチャートである。 画像処理装置21において行われる学習処理で用いられる生徒データと教師データとの関係を説明する図である。 実験の結果得られた生徒データと、その学習用のコンテンツの教師データを示す図である。 ある時刻における生徒データについての、水平方向の位置と、垂直方向の位置との関係を示す図である。 学習部30の構成例を示すブロック図である。 学習処理を説明するフローチャートである。 学習結果適用処理を説明するフローチャートである。 加工情報記録処理を説明するフローチャートである。 本発明を適用した情報処理装置の一実施の形態の構成例を示すブロック図である。 本発明を適用した情報処理装置の一実施の形態の構成例を示すブロック図である。 本発明を適用した情報処理装置の一実施の形態の構成例を示すブロック図である。 パーソナルコンピュータの構成の例を示すブロック図である。
符号の説明
21 画像処理装置, 22 入力部, 23 特徴量抽出部, 24 コンテンツ加工部, 25 加工情報記録再生部, 26 出力部, 27 ユーザ操作入力部, 28 加工情報記録部, 29 教師データ取得部, 30 学習部, 31 ユーザアルゴリズム記録部, 32 メディア, 33および34 可搬メディア, 41 クラス分類部41, 42 予測処理部, 51 情報処理装置, 52 機器制御部, 53 制御対象機器

Claims (8)

  1. ユーザによる複数回の操作の履歴に基づいて、前記ユーザの操作の特徴を学習する学習装置において、
    前記ユーザの操作に応じて、所定の入力情報を加工する加工手段と、
    前記加工手段により所定の入力情報が加工された結果得られる出力情報を出力するのに必要な加工情報を生成する生成手段と、
    前記ユーザによる操作の回数に応じた複数の前記加工情報を蓄積する蓄積手段と、
    前記蓄積手段に蓄積されている複数の加工情報を、学習の生徒となる生徒データとし、前記所定の入力情報に基づいて得られる所定の情報を、学習の教師となる教師データとした学習を行うことにより、前記ユーザの操作の特徴を表す予測係数を算出する学習手段と
    を備える学習装置。
  2. 前記蓄積手段に蓄積されている複数の前記加工情報の値に基づいて、前記加工情報を、所定のクラスに分類するクラス分類手段
    をさらに備え、
    前記学習手段は、前記クラス分類手段が分類したクラスごとに、前記生徒データと前記教師データと用いた学習を行う
    請求項1に記載の学習装置。
  3. ユーザによる複数回の操作の履歴に基づいて、前記ユーザの操作の特徴を学習する学習方法において、
    前記ユーザの操作に応じて、所定の入力情報を加工し、
    前記所定の入力情報が加工された結果得られる出力情報を出力するのに必要な加工情報を生成し、
    前記ユーザによる操作の回数に応じた複数の前記加工情報を、情報を蓄積する蓄積手段に蓄積し、
    前記蓄積手段に蓄積されている複数の加工情報を、学習の生徒となる生徒データとし、前記所定の入力情報に基づいて得られる所定の情報を、学習の教師となる教師データとした学習を行うことにより、前記ユーザの操作の特徴を表す予測係数を算出する
    ステップを含む学習方法。
  4. ユーザによる複数回の操作の履歴に基づいて、前記ユーザの操作の特徴を学習する学習装置のコンピュータに実行させるプログラムにおいて、
    前記ユーザの操作に応じて、所定の入力情報を加工し、
    前記所定の入力情報が加工された結果得られる出力情報を出力するのに必要な加工情報を生成し、
    前記ユーザによる操作の回数に応じた複数の前記加工情報を、情報を蓄積する蓄積手段に蓄積し、
    前記蓄積手段に蓄積されている複数の加工情報を、学習の生徒となる生徒データとし、前記所定の入力情報に基づいて得られる所定の情報を、学習の教師となる教師データとした学習を行うことにより、前記ユーザの操作の特徴を表す予測係数を算出する
    ステップを含む処理をコンピュータに実行させるプログラム。
  5. 所定の入力情報を加工し、その結果得られる出力情報を出力する情報加工装置において、
    あらかじめ行われた学習により得られた予測係数を記憶する予測係数記憶手段と、
    前記ユーザの操作に応じて、前記所定の入力情報を加工する加工手段と、
    前記加工手段により所定の入力情報が加工された結果得られる前記出力情報を出力するのに必要な加工情報を生成する生成手段と、
    前記ユーザによる操作の回数に応じた複数の前記加工情報を蓄積する蓄積手段と、
    前記予測係数記憶手段に記憶されている予測係数と、前記蓄積手段に蓄積されている複数の加工情報とを用いて、所定の演算を行い、前記ユーザの操作の特徴が反映された加工情報を算出する演算手段と
    を備え、
    前記加工手段は、前記ユーザの操作の特徴が反映された加工情報に基づいて、前記所定の入力情報を加工する
    情報加工装置。
  6. 前記蓄積手段に蓄積されている複数の前記加工情報の値に基づいて、前記加工情報を、所定のクラスに分類するクラス分類手段
    をさらに備え、
    前記演算手段は、前記クラス分類手段により分類されたクラスごとに、前記予測係数と、前記加工情報とを用いた演算を行う
    請求項5に記載の情報加工装置。
  7. 所定の入力情報を加工し、その結果得られる出力情報を出力する情報加工装置の情報加工方法において、
    前記情報加工装置は、
    あらかじめ行われた学習により得られた予測係数を記憶する予測係数記憶手段と、
    情報を蓄積する蓄積手段と
    を備え、
    前記ユーザの操作に応じて、前記所定の入力情報を加工し、
    前記所定の入力情報が加工された結果得られる前記出力情報を出力するのに必要な加工情報を生成し、
    前記ユーザによる操作の回数に応じた複数の前記加工情報を、前記蓄積手段に蓄積し、
    前記予測係数記憶手段に記憶されている予測係数と、前記蓄積手段に蓄積されている複数の加工情報とを用いて、所定の演算を行い、前記ユーザの操作の特徴が反映された加工情報を算出し、
    前記ユーザの操作の特徴が反映された加工情報に基づいて、前記所定の入力情報を加工する
    ステップを含む情報加工方法。
  8. 所定の入力情報を加工し、その結果得られる出力情報を出力する情報加工装置のコンピュータに実行させるプログラムにおいて、
    前記情報加工装置は、
    あらかじめ行われた学習により得られた予測係数を記憶する予測係数記憶手段と、
    情報を蓄積する蓄積手段と
    を備え、
    前記ユーザの操作に応じて、前記所定の入力情報を加工し、
    前記所定の入力情報が加工された結果得られる前記出力情報を出力するのに必要な加工情報を生成し、
    前記ユーザによる操作の回数に応じた複数の前記加工情報を、前記蓄積手段に蓄積し、
    前記予測係数記憶手段に記憶されている予測係数と、前記蓄積手段に蓄積されている複数の加工情報とを用いて、所定の演算を行い、前記ユーザの操作の特徴が反映された加工情報を算出し、
    前記ユーザの操作の特徴が反映された加工情報に基づいて、前記所定の入力情報を加工する
    ステップを含む処理をコンピュータに実行させるプログラム。
JP2007139993A 2007-05-28 2007-05-28 学習装置および学習方法、情報加工装置および情報加工方法、並びにプログラム Expired - Fee Related JP5217250B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2007139993A JP5217250B2 (ja) 2007-05-28 2007-05-28 学習装置および学習方法、情報加工装置および情報加工方法、並びにプログラム
CN2008800177409A CN101681447B (zh) 2007-05-28 2008-05-28 学习设备、学习方法、信息修改设备、信息修改方法和程序
US12/600,660 US20100138369A1 (en) 2007-05-28 2008-05-28 Learning apparatus, learning method, information modification apparatus, information modification method, and program
PCT/JP2008/059767 WO2008146827A1 (ja) 2007-05-28 2008-05-28 学習装置および学習方法、情報加工装置および情報加工方法、並びにプログラム
EP08764783.0A EP2154637A4 (en) 2007-05-28 2008-05-28 LEARNING DEVICE, LEARNING METHOD, INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
KR1020097024413A KR20100022958A (ko) 2007-05-28 2008-05-28 학습 장치, 학습 방법, 정보 가공 장치, 정보 가공 방법, 및 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007139993A JP5217250B2 (ja) 2007-05-28 2007-05-28 学習装置および学習方法、情報加工装置および情報加工方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2008292885A true JP2008292885A (ja) 2008-12-04
JP5217250B2 JP5217250B2 (ja) 2013-06-19

Family

ID=40075065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007139993A Expired - Fee Related JP5217250B2 (ja) 2007-05-28 2007-05-28 学習装置および学習方法、情報加工装置および情報加工方法、並びにプログラム

Country Status (6)

Country Link
US (1) US20100138369A1 (ja)
EP (1) EP2154637A4 (ja)
JP (1) JP5217250B2 (ja)
KR (1) KR20100022958A (ja)
CN (1) CN101681447B (ja)
WO (1) WO2008146827A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104864375A (zh) * 2015-05-19 2015-08-26 陈权 智能学习灯及智能学习系统

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977077B2 (en) * 2013-01-21 2015-03-10 Apple Inc. Techniques for presenting user adjustments to a digital image
CN110691964B (zh) * 2017-04-24 2023-08-22 索尼公司 信息处理设备、粒子分选系统、程序和粒子分选方法
JP6985856B2 (ja) * 2017-08-31 2021-12-22 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
CN113228139A (zh) * 2019-05-24 2021-08-06 川崎重工业株式会社 带学习功能的建筑机械
US11514806B2 (en) * 2019-06-07 2022-11-29 Enduvo, Inc. Learning session comprehension

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1127535A (ja) * 1997-07-04 1999-01-29 Dainippon Screen Mfg Co Ltd 画像処理パラメータ決定装置およびその方法
WO2003071479A1 (fr) * 2002-02-21 2003-08-28 Sony Corporation Processeur de signaux
JP2003316760A (ja) * 2002-04-26 2003-11-07 Sony Corp データ変換装置およびデータ変換方法、学習装置および学習方法、並びに記録媒体
JP2004336705A (ja) * 2003-02-21 2004-11-25 Matsushita Electric Ind Co Ltd 動画像符号化方法、動画像復号化方法およびプログラム
JP2005111249A (ja) * 2003-06-19 2005-04-28 Konica Minolta Medical & Graphic Inc 画像処理方法および画像処理装置ならびに画像処理プログラム
JP2005258282A (ja) * 2004-03-15 2005-09-22 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2006270187A (ja) * 2005-03-22 2006-10-05 Sony Corp 撮影装置、情報処理装置、情報処理方法、プログラム、およびプログラム記録媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3731868B2 (ja) * 2001-03-19 2006-01-05 本田技研工業株式会社 学習システム
GB2388286A (en) * 2002-05-01 2003-11-05 Seiko Epson Corp Enhanced speech data for use in a text to speech system
JP4214459B2 (ja) * 2003-02-13 2009-01-28 ソニー株式会社 信号処理装置および方法、記録媒体、並びにプログラム
CN100461789C (zh) * 2003-10-10 2009-02-11 华为技术有限公司 一种基于二层虚拟专用网的网络通信方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1127535A (ja) * 1997-07-04 1999-01-29 Dainippon Screen Mfg Co Ltd 画像処理パラメータ決定装置およびその方法
WO2003071479A1 (fr) * 2002-02-21 2003-08-28 Sony Corporation Processeur de signaux
JP2003316760A (ja) * 2002-04-26 2003-11-07 Sony Corp データ変換装置およびデータ変換方法、学習装置および学習方法、並びに記録媒体
JP2004336705A (ja) * 2003-02-21 2004-11-25 Matsushita Electric Ind Co Ltd 動画像符号化方法、動画像復号化方法およびプログラム
JP2005111249A (ja) * 2003-06-19 2005-04-28 Konica Minolta Medical & Graphic Inc 画像処理方法および画像処理装置ならびに画像処理プログラム
JP2005258282A (ja) * 2004-03-15 2005-09-22 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2006270187A (ja) * 2005-03-22 2006-10-05 Sony Corp 撮影装置、情報処理装置、情報処理方法、プログラム、およびプログラム記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104864375A (zh) * 2015-05-19 2015-08-26 陈权 智能学习灯及智能学习系统

Also Published As

Publication number Publication date
JP5217250B2 (ja) 2013-06-19
CN101681447B (zh) 2013-05-01
WO2008146827A1 (ja) 2008-12-04
US20100138369A1 (en) 2010-06-03
KR20100022958A (ko) 2010-03-03
CN101681447A (zh) 2010-03-24
EP2154637A1 (en) 2010-02-17
EP2154637A4 (en) 2013-05-29

Similar Documents

Publication Publication Date Title
JP5217250B2 (ja) 学習装置および学習方法、情報加工装置および情報加工方法、並びにプログラム
CN101237551B (zh) 图像处理装置以及图像处理方法
CN101989173B (zh) 图像编辑装置和图像编辑方法
US20100202711A1 (en) Image processing apparatus, image processing method, and program
US8300115B2 (en) Image processing apparatus, image processing method, and program
JPWO2007145007A1 (ja) 操作確認情報提供装置およびそのような装置を備えた電子機器
JP2007228334A (ja) 動画像制御装置および方法並びにプログラム
CN101448066A (zh) 控制文件压缩比的方法和设备
JP2009290713A (ja) 画像処理装置および画像処理方法、並びにプログラム
JP2002300538A (ja) 係数データの生成装置および生成方法、それを使用した情報信号の処理装置および処理方法、それに使用する種係数データの生成装置および生成方法、並びに情報提供媒体
KR20110090601A (ko) 부가 정보 표시 방법 및 장치
CN101127836A (zh) 图像拾取装置和图像拾取方法及程序
JP4639613B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP2005159830A (ja) 信号処理装置および方法、記録媒体、並びにプログラム
US20210011615A1 (en) Edit Experience for Transformation of Digital Content
CN101527807B (zh) 数据处理设备、数据处理方法和程序
US20070104464A1 (en) Image forming apparatus and method
JP5088541B2 (ja) 情報処理装置及び方法、並びにプログラム
JP4512978B2 (ja) 画像処理装置および画像処理方法、プログラム、並びに記録媒体
WO2006046321A1 (en) Apparatus, method, and program product for reproducing or recording moving image
JP5737988B2 (ja) 画像処理装置およびその制御方法およびプログラム
JPWO2018066381A1 (ja) 再生装置および再生方法、並びにプログラム
JP2010074545A (ja) 動画検索装置及び動画検索方法
WO2021251222A1 (ja) 学習装置、提示装置及び技術習得方法
US20120207442A1 (en) Reproducing apparatus, reproducing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130218

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees