WO2020148810A1 - 情報処理装置 - Google Patents
情報処理装置 Download PDFInfo
- Publication number
- WO2020148810A1 WO2020148810A1 PCT/JP2019/000964 JP2019000964W WO2020148810A1 WO 2020148810 A1 WO2020148810 A1 WO 2020148810A1 JP 2019000964 W JP2019000964 W JP 2019000964W WO 2020148810 A1 WO2020148810 A1 WO 2020148810A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- images
- information processing
- target
- learning
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
再現対象となる対象物を撮影して得られる複数の基準画像を取得し、当該複数の基準画像のそれぞれを拡大又は縮小して得られる複数の変換画像を取得し、当該複数の変換画像を含む複数の学習対象画像を教師データとして用いて機械学習を実行し、対象物の外観を表す再現画像を生成するために用いられる学習済みデータを生成する情報処理装置である。
Description
本発明は、対象物を表す画像を生成するための情報処理装置、情報処理方法、プログラム、及び学習済みデータに関する。
機械学習によって画像を自動生成する技術が研究されている。このような試みの一つとして、人などの対象物を撮影して得られる複数の撮影画像を教師データとして用いて、同じ対象物を再現する画像を生成する手法が検討されている。
上記技術においては、限られた種類の画像を教師データとして利用して機械学習を行ったとしても、その限られた教師データに比較的近いパターンの再現画像しか生成することができず、教師データの内容から大きく逸脱したパターンの再現画像を精度よく生成することは難しい。一方で、生成可能な再現画像のバリエーションを増やすためには多様なパターンの画像を撮影しなければならず、手間がかかってしまう。
本発明は上記実情を考慮してなされたものであって、その目的の一つは、比較的少ない手間で対象物を再現する再現画像のバリエーションを増やすことのできる情報処理装置、情報処理方法、プログラム、及び学習済みデータを提供することにある。
本発明の一態様に係る情報処理装置は、再現対象となる対象物を撮影して得られる複数の基準画像を取得する基準画像取得部と、前記複数の基準画像のそれぞれを拡大又は縮小して得られる複数の変換画像を取得する変換画像取得部と、前記複数の変換画像を含む複数の学習対象画像を教師データとして用いて機械学習を実行し、前記対象物の外観を表す再現画像を生成するために用いられる学習済みデータを生成する機械学習部と、を含むことを特徴とする。
本発明の一態様に係る情報処理方法は、再現対象となる対象物を撮影して得られる複数の基準画像を取得するステップと、前記複数の基準画像のそれぞれを拡大又は縮小して得られる複数の変換画像を取得するステップと、前記複数の変換画像を含む複数の学習対象画像を教師データとして用いて機械学習を実行し、前記対象物の外観を表す再現画像を生成するために用いられる学習済みデータを生成するステップと、を含むことを特徴とする。
本発明の一態様に係るプログラムは、再現対象となる対象物を撮影して得られる複数の基準画像を取得するステップと、前記複数の基準画像のそれぞれを拡大又は縮小して得られる複数の変換画像を取得するステップと、前記複数の変換画像を含む複数の学習対象画像を教師データとして用いて機械学習を実行し、前記対象物の外観を表す再現画像を生成するために用いられる学習済みデータを生成するステップと、をコンピュータに実行させるためのプログラムである。このプログラムは、コンピュータ読み取り可能で非一時的な情報記憶媒体に格納されて提供されてよい。
本発明の一態様に係る学習済みデータは、再現対象となる対象物を撮影して得られる複数の基準画像のそれぞれを拡大又は縮小して得られる複数の変換画像を含む複数の学習対象画像を教師データとして用いて機械学習を実行した結果得られる、前記対象物の外観を表す再現画像を生成するために用いられる学習済みデータである。
本発明の一態様に係る情報処理装置は、再現対象となる対象物の姿勢を表す姿勢データを取得する取得部と、対象物を撮影して得られる複数の基準画像のそれぞれを拡大又は縮小して得られる複数の変換画像を含む複数の学習対象画像を教師データとして用いて機械学習を実行した結果得られる学習済みデータを用いて、前記姿勢データが表す姿勢を前記対象物が取っている様子を表す再現画像を生成する再現画像生成部と、を含むことを特徴とする。
以下、本発明の実施の形態について、図面に基づき詳細に説明する。
図1は、本発明の一実施形態に係る情報処理装置10の構成ブロック図である。情報処理装置10は、パーソナルコンピューター等の情報処理装置であって、図1に示されるように、制御部11と、記憶部12と、インタフェース部13と、を含んで構成される。また、情報処理装置10は、操作デバイス14、表示装置15、及びカメラ16と接続されている。
制御部11は、CPU等のプロセッサを少なくとも一つ含み、記憶部12に記憶されているプログラムを実行して各種の情報処理を実行する。なお、本実施形態において制御部11が実行する処理の具体例については、後述する。記憶部12は、RAM等のメモリデバイスを少なくとも一つ含み、制御部11が実行するプログラム、及び当該プログラムによって処理されるデータを格納する。
インタフェース部13は、操作デバイス14、表示装置15及びカメラ16との間のデータ通信のためのインタフェースである。情報処理装置10は、インタフェース部13を介して有線又は無線のいずれかで操作デバイス14、表示装置15及びカメラ16のそれぞれと接続される。具体的にインタフェース部13は、情報処理装置10が供給する映像データを表示装置15に送信するために、HDMI(登録商標)(High-Definition Multimedia Interface)等のマルチメディアインタフェースを含むこととする。また、操作デバイス14が受け付けたユーザーの操作内容を示す操作信号や、カメラ16によって撮影された撮影画像を受信するために、USB(Universal Serial Bus)等のデータ通信インタフェースを含んでいる。
操作デバイス14は、ユーザーからの操作指示を受け付け、その内容を示す操作信号を情報処理装置10に送信する。表示装置15は、情報処理装置10から送信される映像信号に応じた映像を表示して、ユーザーに閲覧させる。
カメラ16は、視野内の様子を撮影して得られる撮影画像を出力する。本実施形態では、後述する再現映像を生成する際に、人の姿勢を表す姿勢データを取得するために用いられる。
次に、情報処理装置10が実現する機能について、図2を用いて説明する。情報処理装置10は、再現対象となる物体(対象物)の外観を表す画像を入力として機械学習を行い、その結果を用いて対象物の外観を再現するために用いられる。図2に示すように、情報処理装置10は、機能的に、基準画像取得部51と、変換画像取得部52と、機械学習部53と、再現画像生成部54と、を含んでいる。これらの機能は、制御部11が記憶部12に記憶されたプログラムを実行することにより実現される。このプログラムは、インターネット等の通信ネットワークを介して情報処理装置10に提供されてもよいし、光ディスク等のコンピュータ読み取り可能な情報記憶媒体に格納されて提供されてもよい。
基準画像取得部51は、後述する機械学習において教師データとして用いられる基準画像Irのデータを取得する。本実施形態において基準画像Irは、再現対象となる対象物を実際に撮影して得られる撮影画像であるものとする。また、対象物は人であることとし、この人物を対象者Tという。
基準画像Irは、対象者Tの略全体を含むことが望ましい。ただし、再現対象となる部分が対象者Tの一部分に限られるのであれば、再現対象となる部分のみを含んでいればよい。また、基準画像Irは対象者T以外の背景などの色情報をできる限り含んでいないことが望ましい。そのため、対象者Tを撮影して基準画像Irを生成する際には、特定色のスクリーンの前で対象者Tを撮影して、グリーンバックなどと呼ばれる手法により、背景の情報を基準画像Irから消去してもよい。あるいは、実際に対象者Tを撮影して得られる撮影画像から対象者Tが写っている部分のみを抽出して得られる画像を、基準画像Irとして使用してもよい。
また、基準画像Irは、対象者Tの再現対象となる部分が略中心に位置する画像であることが望ましい。そのため、撮影時には対象者Tの目の位置が基準画像Irの縦方向の中心に略一致するように、カメラの高さを調整する。また、対象者Tの位置が横方向の中心に略一致するようにカメラの向き、及び対象者Tが立つ位置を調整する。あるいは、撮影した画像を後からクリッピングして対象者Tの目の位置が基準画像Irの中心に位置するように調整してもよい。図3は、以上説明したような要件を満たす基準画像Irの一例を示している。なお、ここでは人の目の位置を中心とすることとしたが、これとは別の部位が基準画像Irの中心に位置するよう調整してもよい。
基準画像取得部51は、一人の対象者Tを様々に異なる複数の姿勢で撮影して得られる複数の基準画像Irのデータを取得する。ただし、撮影時のカメラから対象者Tまでの距離は、どの基準画像Irについても変化がなく、略一定のままであるものとする。そのため、対象者Tを撮影する際には、対象者Tが同じ場所で様々な姿勢を取りつつ撮影を行えばよく、カメラの位置や対象者Tの位置を変化させて撮影を行う必要はない。
変換画像取得部52は、基準画像Irを予め定められた倍率で拡大して変換画像Itを生成することによって、そのデータを取得する。この変換画像Itも、基準画像Irとともに教師データとして機械学習に利用される。特に変換画像取得部52は、1枚の基準画像Irを互いに異なる倍率で拡大することによって、1枚の基準画像Irから複数の変換画像Itを生成することとする。なお、以下の説明において倍率の値は、基準画像Irの縦横それぞれの向きの長さに対する倍率を意味している。また、変換画像Itは、縦横比を維持しつつ基準画像Irの一部領域を拡大して得られる、元の基準画像Irと同じサイズの画像であるものとする。
1枚の基準画像Irに基づいて生成される複数の変換画像Itそれぞれの基準画像Irに対する倍率は、等比数列にしたがって順に増加する値に決定される。具体的に、1枚の基準画像IrからX枚の変換画像Itを生成することとし、これらX枚の変換画像Itを倍率が小さい方から順に変換画像It(1),It(2),・・・,It(X)と表記する。また、最大の倍率(すなわち、変換画像It(X)の倍率)をEmaxとする。このとき、各変換画像Itの倍率は、公比
(Emax)1/X
で増加するように決定される。すなわち、n番目の変換画像It(n)の倍率E(n)は、
E(n)=(Emax)n/X
で計算される。
(Emax)1/X
で増加するように決定される。すなわち、n番目の変換画像It(n)の倍率E(n)は、
E(n)=(Emax)n/X
で計算される。
具体例として、以下では1枚の基準画像Irに基づいて9枚の変換画像It(1)~It(9)が生成されることとする。また、最大の倍率(すなわち、変換画像It(9)の倍率)は4倍とする。このとき、変換画像It(n)の倍率E(n)は、以下の計算式に従って計算される。
E(n)=4n/9
E(n)=4n/9
各変換画像Itは、元の基準画像Irと同じ大きさの画像となるように、元の基準画像Irの一部分のみを拡大して生成される。例えば倍率4倍の変換画像It(9)については、元の基準画像Irに含まれる縦横それぞれ1/4のサイズの領域を拡大することによって生成される。基準画像Irが縦横それぞれ1024ピクセルの画像であれば、変換画像取得部52は、基準画像Irに含まれる縦横それぞれ256(=1024/4)ピクセルの正方形の領域を拡大して、元の基準画像Irと同じ縦横それぞれ1024ピクセルの変換画像It(9)を生成することとなる。
ここで、拡大対象とする領域は、基準画像Ir内の中心位置を中心とする領域であることとする。ただし、対象者Tの再現対象としたい部分が基準画像Irの中心に位置しておらず、ずれた位置に含まれている場合には、対象者Tの位置に合わせて中心からずれた領域を拡大対象としてもよい。
以上説明したような画像処理によって得られる複数の変換画像Itは、対象者Tが実際の撮影時よりもカメラに少しずつ近づいた状態で撮影した撮影画像に近くなると想定される。すなわち、カメラから対象者Tまでの距離が様々に変化した場合の撮影画像に相当する画像を、実際に撮影を行わずに生成することができる。このとき、複数の変換画像Itの倍率は、順に等比数列にしたがって増加するように決定されているので、これらの変換画像Itは、基準画像Irと最大倍率の変換画像It(9)との間で等間隔に距離を変化させた際の撮影画像に近い大きさで、対象者Tを含んだ画像となる。図4は、このようにして図3に示す基準画像Irから生成された9枚の変換画像Itの一例を示している。
機械学習部53は、変換画像取得部52によって取得された変換画像Itを教師データとして用いて、機械学習を行う。この機械学習は、対象者Tの姿勢と外観との対応関係についての学習であるものとする。以下では、機械学習部53が機械学習に使用する画像を学習対象画像という。学習対象画像は、少なくとも変換画像Itを含む。また、学習対象画像は基準画像取得部51によって取得された基準画像Irを含んでもよい。以下の説明では、学習対象画像は基準画像Ir及び変換画像Itの双方を含むものとする。例えば基準画像取得部51が同じ対象者Tを撮影して得られる100枚の基準画像Irを取得し、変換画像取得部52が100枚の基準画像Irのそれぞれを互いに異なる倍率で拡大することによって、1枚の基準画像Irにつき9枚の変換画像Itを生成したものとする。この場合、100枚の基準画像Irと900枚の変換画像Itの計1000枚の画像が学習対象画像となる。
以下、機械学習部53が実行する機械学習の具体的な内容について説明する。まず機械学習部53は、取得された全ての学習対象画像について、対象者Tの姿勢を特定する処理を行う。この姿勢特定処理は、人の身体を構成する各部位がどのような位置関係にあるかを特定する処理であって、公知の技術により実現できる。姿勢特定処理の結果得られる姿勢データは、人の身体を構成する関節や特徴点などの画像内における位置を示す座標値の集合によって構成されてよい。図5は、図3の基準画像Irに対して姿勢特定処理を実行した結果得られる姿勢データを表す骨格モデルの一例を示している。
機械学習部53は、基準画像Irだけでなく、その基準画像Irを拡大して得られる複数の変換画像Itのそれぞれについても、別個独立に姿勢特定処理を実行することとする。変換画像It内では対象者Tが基準画像Irや他の変換画像Itとは違う大きさで含まれており、その身体の一部しか含まれないような場合もあり得る。そのため、同じ姿勢の対象者Tを撮影して得られる基準画像Irと各変換画像Itとの間で、姿勢特定処理の結果に相違が生じることもあるからである。
なお、姿勢特定処理の処理内容や処理の対象は、後述する再現処理においてどの程度対象者Tの外観を詳細に再現したいかによって変化してもよい。例えば対象者Tの手指の動きを再現する必要があれば、学習対象画像に含まれる手指の姿勢を特定し、機械学習に用いる必要がある。また、対象者Tの表情を再現したい場合には、学習対象画像内の対象者Tの顔に含まれる目や口の位置や状態などを対象者Tの姿勢データの一部として特定してもよい。
姿勢特定処理を終えると、機械学習部53は、姿勢特定処理の結果を用いて、実際に機械学習に利用する教師データを選択する。この教師データ選択処理は必須ではなく、取得された全ての学習対象画像を教師データとして機械学習に利用してもよい。しかしながら、学習に寄与しない、又は寄与の度合いが低いと想定される学習対象画像をこの選択処理によって教師データから除外することによって、機械学習に必要な所要時間や計算量等を削減し、処理効率を向上させることができる。
教師データ選択処理の一例として、機械学習部53は、対象者Tの特定の部位が含まれない学習対象画像を教師データから除外してもよい。この特定の部位は、例えば対象者Tの頭部である。対象者Tが前屈みになっているときなど、対象者Tの姿勢によっては、対象者Tの頭部が基準画像Irの中心からずれ、その結果基準画像Irの中心領域を拡大して変換画像Itを生成した際に、変換画像It内に対象者Tの頭部が含まれなくなってしまう場合がある。このような変換画像Itを機械学習の入力に利用しても、対象者Tの姿勢と外観との対応関係を効果的に学習することは難しい。そのため、このように重要な部位が含まれない状態の学習対象画像は、教師データから除外することとする。なお、このような特定の部位が含まれるか否かを判断基準とした選択処理は、変換画像Itだけについて実施してもよい。また、そもそも学習対象画像に対する姿勢の特定処理に失敗した場合や、特定された姿勢の精度が低いと判定された場合には、その学習対象画像を教師データから除外することとしてもよい。
教師データ選択処理の別の例として、機械学習部53は、互いに姿勢が類似すると判定される複数の学習対象画像が発見された場合に、そのうちの一部の学習対象画像だけを教師データとして選択し、それ以外の学習対象画像を教師データから除外してもよい。このような類否判定処理を実現するために、例えば機械学習部53は、各学習対象画像から得られる姿勢データ(姿勢特定結果)に対して分類処理を実行して、互いに姿勢が近いと判断される学習対象画像をグルーピングする。この分類処理は、k平均法などの公知のクラスタリング技術によって実現されてよい。
この分類処理は、学習対象画像の全体について実行するのではなく、基準画像Ir、及び倍率が互いに等しい変換画像Itのグループのそれぞれについて独立に実行することが望ましい。すなわち、機械学習部53は、基準画像Irだけを含むグループを対象として分類処理を行った結果に基づいて、他の基準画像Irと姿勢データが類似すると判定される一部の基準画像Irを教師データから除外する。また、倍率41/9倍で拡大された変換画像It(1)のグループ、倍率42/9倍で拡大された変換画像It(2)のグループなど、それぞれ同じ倍率の変換画像Itが属する9個の変換画像Itのグループに対して、それぞれ独立に分類処理を行って、同様に類似する姿勢が他に存在する変換画像Itを教師データから除外する。このように倍率ごとに独立して分類処理を実行するのは、倍率によって学習対象画像に含まれる対象者Tの大きさが異なり、それにより姿勢の類似度に寄与する部位も変化するからである。例えば対象者Tの全身が含まれる基準画像Irについては、手や足の位置が近ければ姿勢が近いと判断される可能性が高くなる。一方、対象者Tの表情が複数の基準画像Irの間で互いに異なっていたとしても、基準画像Ir内における目や口の位置は大きく変化しないため、このような顔の中の部位の位置情報は姿勢の類似度に対する寄与の度合いが相対的に小さくなる。これに対して最大倍率の変換画像It(9)においては、図4に例示したように対象者Tの顔を中心とした限られた領域のみが画像内に含まれ、手や足などは画像内に含まれなくなる。そのため、手や足の位置の相違は姿勢の類似度に寄与せず、顔に含まれる目や口の位置などが姿勢の類否を判断する上で重要となる。このように倍率のグループ毎に分類処理を実行する結果、ある基準画像Irは他の基準画像Irと姿勢が類似すると判断されて教師データから除外される一方で、この基準画像Irを拡大して得られる変換画像Itは教師データとして利用されるケースも生じ得る。このような分類処理の実行結果に基づいて実際に機械学習に使用する教師データを絞り込むことで、比較的少ない画像を教師データとして効率的に学習を行うことができる。
なお、以上説明した複数の選択処理は、互いに組み合わせて実行してもよい。また、以上説明したもの以外にも、各種の判断基準で教師データから除外する学習対象画像を選択してもよい。
選択処理によって実際に機械学習に使用する学習対象画像を教師データとして選択すると、機械学習部53は、選択された学習対象画像と、その学習対象画像に基づいて特定された姿勢データの組を入力として、その姿勢を取っている対象者Tの外観がどのような画像になるかを学習する。このような機械学習は、ニューラルネットワークなどを用いた機械学習アルゴリズムによって実現できる。この機械学習によって、対象者Tの姿勢を表す姿勢データから対象者Tの外観を表す画像を推定する推定器を実現するための学習済みデータが生成される。
再現画像生成部54は、機械学習部53が実行する機械学習によって得られる学習済みデータを用いて、対象者Tの外観を再現する画像(再現画像)を生成する。具体的に再現画像生成部54は、対象者Tに取らせたい姿勢を表す姿勢データ(骨格モデルデータ)を取得し、機械学習部53が生成した学習済みデータを使用する推定器に入力する。推定器は、その骨格モデルデータが表す姿勢を対象者Tが取った場合にどのような外観になるかを推定し、推定結果の画像を出力する。
より具体的に、本実施形態では、対象者Tとは別の人物(以下、利用者Uという)の動作を反映して、その動作と対応する動作を対象者Tが取っているかのように見える映像(再現映像)を生成し、出力する。このような制御を実現するため、再現画像生成部54は、カメラ16で利用者Uを撮影して得られる撮影画像を取得する。このとき、カメラ16による利用者Uの撮影条件は、基準画像Irを用意するために対象者Tを撮影した際の撮影条件に近いことが望ましい。すなわち、カメラ16は、対象者Tを撮影したカメラと同じカメラであっても異なるカメラであってもよいが、解像度などは同じであることが望ましい。また、撮影時のカメラ16の高さも、対象者Tを撮影した際のカメラの高さと近いほうがよい。
一方で、カメラ16と利用者Uとの間の距離は一定である必要がなく、利用者Uはカメラ16に近づいたり遠ざかったりする移動を行ってもよい。ただし、その距離範囲は、基準画像Irを取得するための撮影が行われた際のカメラと対象者Tとの間の距離を超えないことが望ましい。また、以上の説明では変換画像Itを生成する際の最大倍率を縦横それぞれ4倍としているので、この倍率を超える大きさで写ってしまう距離までカメラ16に近づきすぎることは好ましくない。しかしながら、基準画像Irに対応する距離と最大倍率の変換画像Itに対応する距離の間の距離範囲内であれば、任意の位置に移動しながら撮影を行うことができる。図6は、このような利用者Uの撮影の様子を示している。
再現画像生成部54は、利用者Uを含むカメラ16の撮影画像に対して、姿勢特定処理を実行する。この姿勢特定処理は、機械学習部53が学習対象データを生成するために学習対象画像に実行した姿勢特定処理と同じアルゴリズムのものである。これにより、利用者Uの撮影時点における姿勢を表す姿勢データが得られる。
再現画像生成部54は、利用者Uの姿勢データを、機械学習部53が生成した学習済みデータを用いる推定器に入力する。その結果として、対象者Tが利用者Uと同じ姿勢を取っている様子を表す再現画像が生成される。再現画像生成部54は、この再現画像を描画し、表示装置15の画面に表示する。以上説明した手順による利用者Uの撮影画像に基づく再現画像の表示処理を、利用者Uが様々に姿勢を変化させながらリアルタイムで繰り返し実行することにより、利用者Uと同じように対象者Tが動く様子を示す再現映像を生成、表示することができる。図7は、図6に示す利用者Uの姿勢に応じて再現画像生成部54が生成する対象者Tの再現画像の一例を示している。
ここで、様々な姿勢を取っている対象者Tを撮影して得られる複数の基準画像Irを用いて機械学習を行った結果得られる学習済みデータを利用することで、再現画像生成部54は、対象者Tが現実には取っていないような姿勢を取った際にどのような外観となるかを推定し、再現画像を生成することができる。さらに、基準画像Irだけでなく変換画像Itを学習対象に含めて機械学習を行った結果の学習済みデータを利用することで、再現画像生成部54は、対象者Tを撮影した際の距離よりも近い位置まで利用者Uがカメラ16に近づいたとしても、対象者Tの外観を比較的精度よく再現することができる。これにより、カメラ16の撮影方向に沿って移動する動きを含め、利用者Uが様々な動作を行った場合に、その動作と同じ動作を取る対象者Tの様子を動画像として表示することができる。このような処理によれば、例えば窓口における受付対応などのように、その場には存在しない対象者Tが現実に起こる状況に反応する動作を行う様子を、リアルタイムで映像として生成し、閲覧者に提示することができる。
なお、再現画像生成部54が生成する再現画像は、対象者Tが含まれる部分以外の領域を透明な画素に変換した画像であってもよい。このような画素変換は、生成された再現画像内において基準画像Irの背景色と同じ色の画素を透明色に変換することによって実現できる。このように背景を透明にした再現画像を所与の背景画像と合成することで、対象者Tが実際には行っていない別の場所にいるかのような画像を生成することができる。このような合成を行う際には、対象者Tの明度に合わせて背景画像の明度を調整したり、背景画像と対象者Tとの境界部分にガウシアンノイズを追加したりするなどして境界部分が目立たないようにする処理を実行してもよい。
以上説明したように、本実施形態に係る情報処理装置10によれば、固定された位置にいる対象者Tを撮影して得られる画像に基づいて、この対象者Tが前後方向の移動も含めて様々な動作を取る様子を再現する画像を生成することができる。
なお、本発明の実施の形態は、以上説明したものに限られない。例えば以上の説明では再現対象となる対象物は人であることとしたが、これ以外にも、例えば動物など姿勢が変化する各種の物であってよい。また、以上の説明では一人の対象者Tのみを再現対象とすることとしたが、複数の対象者についてそれぞれ複数の基準画像Irを取得し、それぞれ独立に機械学習を行って学習済みデータを生成すれば、複数の対象者を再現対象とすることも可能である。この場合、再現画像生成部54は、まず再現対象となる対象者の選択を利用者から受け入れ、選択された対象者に対応する学習済みデータを読み出して、再現画像の生成に利用する。
また、以上の説明では一つの情報処理装置10が機械学習と再現画像の生成処理の双方を実施することとしたが、これに限らずこれらの処理は互いに別の情報処理装置によって実現されてもよい。この場合、機械学習を行った情報処理装置は、その結果得られる学習済みデータをコンピュータ読み取り可能な情報記憶媒体に格納したり、通信ネットワークを介して配信したりして外部の情報処理装置に提供する。提供を受けた情報処理装置は、提供された学習済みデータを利用することで、以上説明したような再現画像生成部54の機能を実現することができる。
また、以上の説明における変換画像の倍率や1枚の基準画像に基づいて生成する変換画像の数などの各種のパラメータは、例示に過ぎない。また、以上の説明では変換画像は基準画像を拡大して得られる拡大画像であることとしたが、これに限らず、基準画像を所与の倍率で縮小して得られる縮小画像を変換画像として機械学習に利用してもよい。このような縮小画像を機械学習に用いることで、基準画像の撮影時におけるカメラから対象者Tまでの距離よりも離れた位置まで利用者Uがカメラ16から遠ざかった場合にも、精度よく対象者Tを再現する再現画像を生成することができる。
10 情報処理装置、11 制御部、12 記憶部、13 インタフェース部、14 操作デバイス、15 表示装置、16 カメラ、51 基準画像取得部、52 変換画像取得部、53 機械学習部、54 再現画像生成部。
Claims (11)
- 再現対象となる対象物を撮影して得られる複数の基準画像を取得する基準画像取得部と、
前記複数の基準画像のそれぞれを拡大又は縮小して得られる複数の変換画像を取得する変換画像取得部と、
前記複数の変換画像を含む複数の学習対象画像を教師データとして用いて機械学習を実行し、前記対象物の外観を表す再現画像を生成するために用いられる学習済みデータを生成する機械学習部と、
を含むことを特徴とする情報処理装置。 - 請求項1に記載の情報処理装置において、
前記複数の学習対象画像は、前記複数の基準画像を含む
ことを特徴とする情報処理装置。 - 請求項1又は2に記載の情報処理装置において、
前記機械学習部は、前記複数の学習対象画像のそれぞれに対して、当該学習対象画像に含まれる前記対象物の姿勢を特定する処理を実行し、当該処理の結果得られる姿勢データと、当該学習対象画像とを教師データとして用いて前記機械学習を実行し、前記対象物の姿勢データを前記再現画像に変換するために用いられる学習済みデータを生成する
ことを特徴とする情報処理装置。 - 請求項3に記載の情報処理装置において、
前記機械学習部は、前記姿勢を特定する処理を実行した結果、前記対象物の所定の部位を含まないと判定された学習対象画像を前記教師データから除外する
ことを特徴とする情報処理装置。 - 請求項3又は4に記載の情報処理装置において、
前記機械学習部は、前記複数の学習対象画像に対して、それぞれの学習対象画像から得られた姿勢データが互いに類似するか否か判定する類否判定処理を実行し、得られた姿勢データが他の学習対象画像から得られた姿勢データに類似すると判定された一部の学習対象画像を、前記教師データから除外する
ことを特徴とする情報処理装置。 - 請求項5に記載の情報処理装置において、
前記変換画像取得部は、1枚の前記基準画像を互いに異なる倍率で拡大又は縮小して複数の前記変換画像を生成し、
前記機械学習部は、前記複数の学習対象画像を、それぞれ互いに同じ倍率で拡大又は縮小された複数の変換画像を含む複数のグループに分類し、当該複数のグループのそれぞれに対して独立に前記類否判定処理を実行して前記教師データから除外する学習対象画像を選択する
ことを特徴とする情報処理装置。 - 請求項1から6のいずれか一項に記載の情報処理装置において、
前記変換画像取得部は、1枚の前記基準画像を互いに異なる倍率で拡大又は縮小して複数の前記変換画像を生成し、かつ、前記互いに異なる倍率は、等比数列にしたがって順に変化する倍率である
ことを特徴とする情報処理装置。 - 再現対象となる対象物を撮影して得られる複数の基準画像を取得するステップと、
前記複数の基準画像のそれぞれを拡大又は縮小して得られる複数の変換画像を取得するステップと、
前記複数の変換画像を含む複数の学習対象画像を教師データとして用いて機械学習を実行し、前記対象物の外観を表す再現画像を生成するために用いられる学習済みデータを生成するステップと、
を含むことを特徴とする情報処理方法。 - 再現対象となる対象物を撮影して得られる複数の基準画像を取得するステップと、
前記複数の基準画像のそれぞれを拡大又は縮小して得られる複数の変換画像を取得するステップと、
前記複数の変換画像を含む複数の学習対象画像を教師データとして用いて機械学習を実行し、前記対象物の外観を表す再現画像を生成するために用いられる学習済みデータを生成するステップと、
をコンピュータに実行させるためのプログラム。 - 再現対象となる対象物を撮影して得られる複数の基準画像のそれぞれを拡大又は縮小して得られる複数の変換画像を含む複数の学習対象画像を教師データとして用いて機械学習を実行した結果得られる、前記対象物の外観を表す再現画像を生成するために用いられる学習済みデータ。
- 再現対象となる対象物の姿勢を表す姿勢データを取得する取得部と、
対象物を撮影して得られる複数の基準画像のそれぞれを拡大又は縮小して得られる複数の変換画像を含む複数の学習対象画像を教師データとして用いて機械学習を実行した結果得られる学習済みデータを用いて、前記姿勢データが表す姿勢を前記対象物が取っている様子を表す再現画像を生成する再現画像生成部と、
を含むことを特徴とする情報処理装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/421,266 US20220101491A1 (en) | 2019-01-15 | 2019-01-15 | Information processing apparatus |
JP2020566361A JP7134260B2 (ja) | 2019-01-15 | 2019-01-15 | 情報処理装置 |
PCT/JP2019/000964 WO2020148810A1 (ja) | 2019-01-15 | 2019-01-15 | 情報処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/000964 WO2020148810A1 (ja) | 2019-01-15 | 2019-01-15 | 情報処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020148810A1 true WO2020148810A1 (ja) | 2020-07-23 |
Family
ID=71613568
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2019/000964 WO2020148810A1 (ja) | 2019-01-15 | 2019-01-15 | 情報処理装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220101491A1 (ja) |
JP (1) | JP7134260B2 (ja) |
WO (1) | WO2020148810A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012088787A (ja) * | 2010-10-15 | 2012-05-10 | Canon Inc | 画像処理装置、画像処理方法 |
JP2018116599A (ja) * | 2017-01-20 | 2018-07-26 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2018129007A (ja) * | 2017-02-10 | 2018-08-16 | 日本電信電話株式会社 | 学習データ生成装置、学習装置、推定装置、学習データ生成方法及びコンピュータプログラム |
JP2018136632A (ja) * | 2017-02-20 | 2018-08-30 | オムロン株式会社 | 形状推定装置 |
JP2018169672A (ja) * | 2017-03-29 | 2018-11-01 | 三菱電機インフォメーションシステムズ株式会社 | 教師画像を生成する方法、コンピュータおよびプログラム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6807286B1 (en) * | 2000-04-13 | 2004-10-19 | Microsoft Corporation | Object recognition using binary image quantization and hough kernels |
US8903167B2 (en) * | 2011-05-12 | 2014-12-02 | Microsoft Corporation | Synthesizing training samples for object recognition |
US9251439B2 (en) * | 2011-08-18 | 2016-02-02 | Nikon Corporation | Image sharpness classification system |
US9043247B1 (en) * | 2012-02-25 | 2015-05-26 | Symantec Corporation | Systems and methods for classifying documents for data loss prevention |
US10242293B2 (en) * | 2015-08-04 | 2019-03-26 | The Asan Foundation | Method and program for computing bone age by deep neural network |
US10402689B1 (en) * | 2017-04-04 | 2019-09-03 | Snap Inc. | Generating an image mask using machine learning |
US10430966B2 (en) * | 2017-04-05 | 2019-10-01 | Intel Corporation | Estimating multi-person poses using greedy part assignment |
US10410322B2 (en) * | 2017-04-05 | 2019-09-10 | Here Global B.V. | Deep convolutional image up-sampling |
CN107680088A (zh) * | 2017-09-30 | 2018-02-09 | 百度在线网络技术(北京)有限公司 | 用于分析医学影像的方法和装置 |
GB2569817B (en) * | 2017-12-29 | 2021-06-23 | Snugs Tech Ltd | Ear insert shape determination |
US20190272620A1 (en) * | 2018-03-05 | 2019-09-05 | Jared Siegwarth Seip | System and method for image upscaling |
CN111161274B (zh) * | 2018-11-08 | 2023-07-07 | 上海市第六人民医院 | 腹部图像分割方法、计算机设备 |
US10489683B1 (en) * | 2018-12-17 | 2019-11-26 | Bodygram, Inc. | Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks |
-
2019
- 2019-01-15 US US17/421,266 patent/US20220101491A1/en active Pending
- 2019-01-15 WO PCT/JP2019/000964 patent/WO2020148810A1/ja active Application Filing
- 2019-01-15 JP JP2020566361A patent/JP7134260B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012088787A (ja) * | 2010-10-15 | 2012-05-10 | Canon Inc | 画像処理装置、画像処理方法 |
JP2018116599A (ja) * | 2017-01-20 | 2018-07-26 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2018129007A (ja) * | 2017-02-10 | 2018-08-16 | 日本電信電話株式会社 | 学習データ生成装置、学習装置、推定装置、学習データ生成方法及びコンピュータプログラム |
JP2018136632A (ja) * | 2017-02-20 | 2018-08-30 | オムロン株式会社 | 形状推定装置 |
JP2018169672A (ja) * | 2017-03-29 | 2018-11-01 | 三菱電機インフォメーションシステムズ株式会社 | 教師画像を生成する方法、コンピュータおよびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20220101491A1 (en) | 2022-03-31 |
JP7134260B2 (ja) | 2022-09-09 |
JPWO2020148810A1 (ja) | 2021-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fischer et al. | Rt-gene: Real-time eye gaze estimation in natural environments | |
CN110650368B (zh) | 视频处理方法、装置和电子设备 | |
JP4799105B2 (ja) | 情報処理装置及びその制御方法、コンピュータプログラム、記憶媒体 | |
JP4799104B2 (ja) | 情報処理装置及びその制御方法、コンピュータプログラム、記憶媒体 | |
WO2021004257A1 (zh) | 视线检测和视频处理的方法、装置、设备和存储介质 | |
DE112016004437T5 (de) | Head-Mounted-Display mit Gesichtsausdruck-Erkennungsfähigkeit | |
KR20150117553A (ko) | 시선 추적 방법, 장치 및 컴퓨터 판독가능한 기록 매체 | |
JP5949030B2 (ja) | 画像生成装置、画像生成方法及びプログラム | |
CN114219878A (zh) | 虚拟角色的动画生成方法及装置、存储介质、终端 | |
JP2018045608A5 (ja) | ||
JP5103682B2 (ja) | インタラクティブ看板システム | |
JP2011053942A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
US11443473B2 (en) | Systems and methods for generating a skull surface for computer animation | |
JP2010250419A (ja) | 目の様態を検出する画像処理装置 | |
CN111028318A (zh) | 一种虚拟人脸合成方法、系统、装置和存储介质 | |
JPWO2022074865A5 (ja) | 生体検知装置、制御方法、及びプログラム | |
WO2020148810A1 (ja) | 情報処理装置 | |
CN113342157A (zh) | 眼球追踪处理方法及相关装置 | |
JP2014102713A (ja) | 顔構成部抽出装置、顔構成部抽出方法及びプログラム | |
CN115841602A (zh) | 基于多视角的三维姿态估计数据集的构建方法及装置 | |
JP6859641B2 (ja) | 評価システム、情報処理装置およびプログラム | |
JP7385416B2 (ja) | 画像処理装置、画像処理システム、画像処理方法及び画像処理プログラム | |
JP6461394B1 (ja) | 画像生成装置及び画像生成プログラム | |
US8223220B2 (en) | Image processing device, image processing method, and information storage medium | |
WO2024034415A1 (ja) | 情報処理装置、情報処理方法、及び、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19910189 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2020566361 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19910189 Country of ref document: EP Kind code of ref document: A1 |