JP7280493B2 - 画像処理プログラム及び画像処理装置 - Google Patents

画像処理プログラム及び画像処理装置 Download PDF

Info

Publication number
JP7280493B2
JP7280493B2 JP2019062699A JP2019062699A JP7280493B2 JP 7280493 B2 JP7280493 B2 JP 7280493B2 JP 2019062699 A JP2019062699 A JP 2019062699A JP 2019062699 A JP2019062699 A JP 2019062699A JP 7280493 B2 JP7280493 B2 JP 7280493B2
Authority
JP
Japan
Prior art keywords
image processing
state
data
moving image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019062699A
Other languages
English (en)
Other versions
JP2020161053A (ja
Inventor
一希 小林
真 木村
Original Assignee
株式会社Mixi
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Mixi filed Critical 株式会社Mixi
Priority to JP2019062699A priority Critical patent/JP7280493B2/ja
Publication of JP2020161053A publication Critical patent/JP2020161053A/ja
Priority to JP2023075631A priority patent/JP2023095940A/ja
Application granted granted Critical
Publication of JP7280493B2 publication Critical patent/JP7280493B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理プログラム及び画像処理装置に関する。特に、本発明は、二次元空間又は拡張現実(以下、ARとも称する。)により実現される空間に配置されたオブジェクトに適用する画像処理プログラム及び画像処理装置に関する。
ソーシャルネットワークサービス(以下、SNSとも称する。)の普及とともに、キャラクターや撮影した画像を利用したコミュニケーションツールが普及している。また、スマートフォンやタブレット端末を利用して、これらの画像を手軽に加工することへの要望が高まりを見せている。
スマートフォンやタブレット端末を利用した新しい技術として、AR技術が一般化しつつある。また、AR技術を利用したゲームアプリケーションも広く利用されている。例えば、特許文献1には、AR技術をゲームなどの情報処理に利用することが記載されている。
特開2015-41126号公報
画像の加工技術の一つとして、画像に特定の効果を付与するフィルタが知られている。AR技術においても、AR空間に配置されたオブジェクト、例えば、ヒトの顔を認識して、その動きに合わせた装飾を付与する技術が知られているが、オブジェクトの動きに特定の効果を付与するモーションフィルタのような画像処理方法については、これまで知られていない。
一実施形態において、二次元空間又は三次元空間に配置されたオブジェクトの動きを制御する画像処理プログラムを提供する。また、一実施形態において、二次元空間又は三次元空間に配置されたオブジェクトの動きを制御する画像処理装置を提供する。
本発明の一実施形態によると、第1の動画像データを生成するための所与のオブジェクトのデータから、オブジェクトの第1の時点での第1の状態の位置座標と、オブジェクトの第2の時点での第2の状態の位置座標とを取得し、第1の時点から第2の時点までの第1の期間を、第1の期間とは異なる第2の期間に変更し、第1の状態の位置座標から第2の状態の位置座標までのオブジェクトの変位を第2の期間で行う第2の動画像データを生成することを情報処理装置に実行させるための画像処理プログラムが提供される。
第1の動画像データに基づいて第2の動画像データを作成するための、モーション変更データの指定を受け付け、第2の期間は、モーション変更データに基づいて設定されてもよい。
第1の動画像データに含まれる所定の第1条件を満たす動きに基づいて、第1の状態と第2の状態とを決定してもよい。
第1の動画像データと同期再生される音声データのうち、所定の第2条件を満たす音声の再生時点に基づいて、第1の状態と第2の状態とを決定してもよい。
第1の動画像データにおける第1の時点と第2の時点との間に、音声データのうち所定の波形の再生期間の少なくとも一部が含まれてもよい。
第1の動画像データと前記第2の動画像データはそれぞれ情報処理装置で再生可能であってもよい。
また、本発明の一実施形態によると、所与のオブジェクトの第1の動画像データを格納する格納部と、所与のオブジェクトの第1の動画像データから、オブジェクトの第1の時点での第1の状態の位置座標と、オブジェクトの第2の時点での第2の状態の位置座標とを取得し、第1の時点から第2の時点までの第1の期間を、第1の期間とは異なる第2の期間に変更し、第1の状態の位置座標から第2の状態の位置座標までのオブジェクトの変位を第2の期間で行う第2の動画像データを作成する画像処理部と、を備える画像処理装置が提供される。
一実施形態において、二次元空間又は三次元空間に配置されたオブジェクトの動きを制御する画像処理プログラムが提供される。また、一実施形態において、二次元空間又は三次元空間に配置されたオブジェクトの動きを制御する画像処理装置が提供される。
本発明の一実施形態に係る画像処理プログラム提供システム1を示す模式図である。 本発明の一実施形態に係る端末10を説明するブロック構成図である。 本発明の一実施形態に係るサーバ30を示す模式図である。 本発明の一実施形態に係るオブジェクト90を含む動画像データ(第1の動画像データ)の一例を説明する模式図である。 (a)は本発明の一実施形態に係る右手91のX軸方向の座標を第1の動画像データの時間軸に対してプロットした模式図を示し、(b)は第1の動画像データにモーション変更データを適用して生成された第2の動画像データにおける右手91のX軸座標を時間軸に対してプロットした模式図を示す。 本発明の一実施形態に係る画像処理プログラムの処理を示すフロー図である。 (a)は本発明の一実施形態に係るモーション変更データを適用する画像処理プログラムにより生成された第2の動画像データにおける右手91のX軸座標を時間軸に対してプロットした模式図を示し、(b)はオブジェクト90のパンチの動きを加速度的に変化させるモーション変更データ11cを適用する画像処理プログラムにより生成された第2の動画像データにおける右手91のX軸座標を時間軸に対してプロットした模式図を示す。 本発明の一実施形態に係る画像処理プログラムの画像処理のフローを示す。 本発明の一実施形態に係る画像処理プログラムの画像処理のフローを示す。 本発明の一実施形態に係る第1の画像データと同期再生される音声データを時間軸に対してプロットした模式図を示す。
以下、本発明に係る画像処理プログラム及び画像処理装置について説明する。但し、本発明の画像処理プログラム及び画像処理装置は、以下に示す実施の形態及び実施例の記載内容に限定して解釈されるものではない。
[画像処理プログラム提供システム]
図1は、本発明の一実施形態に係る画像処理プログラム提供システム1を示す模式図である。画像処理プログラム提供システム1は、例えば、ネットワーク20を介して接続される端末10(情報処理装置の一例)及び画像処理プログラム提供サーバ(以下、サーバとも称する。)30を備える。ネットワーク20は、いわゆるインターネットを利用することができ、サーバ30は、光ファイバ等の高速な通信回線を用いた有線接続21を介して、ネットワーク20に接続する。また、端末10には、例えば、スマートフォン等の携帯電話端末10Aやタブレット端末等の携帯型データ端末10B及びパーソナルコンピュータ(以下、PCとも称する。)10Cが含まれる。携帯電話端末10Aや携帯型データ端末10Bは、移動体通信網や無線LAN等の無線通信23を介して、ネットワーク20に接続する。また、PC10Cには、デスクトップ型PC、ラップトップ型PC、ノート型PC及びタブレット型PC等が含まれ、有線接続21又は無線通信23を介して、ネットワーク20に接続する。
[端末(画像処理装置)]
図2を参照して、端末10について、更に説明する。図2は、本発明の一実施形態に係る端末10を説明するブロック構成図である。端末10は、例えば、制御部11、格納部13、入力部15、表示部17、通信部18及び電源部19を備える。
制御部11は、端末10を制御する制御装置であり、例えば、中央処理装置(CPU)を含み、半導体メモリ等の主記憶装置を更に含む。また、制御部11は、端末10を制御するプログラムを含む。なお、端末10を制御するプログラムは、格納部13に格納され、制御部11で実行される。また、一実施形態において、制御部11は、端末10を制御するオペレーティングシステム(以下、OSとも称する。)と、画像処理を実行する画像処理部11aを含む。画像処理部11aは、画像処理のためのアプリケーションプログラム又はモジュールを含む。端末10は、画像処理部11aを備えることにより、画像処理装置としても機能することができる。また、後述するように、一実施形態において、画像処理部11aは、条件検出部11b及びモーション変更データ11cを含むことができる。
格納部13は、ハードディスクやソリッドステートディスク(SSD)等の補助記憶装置であり、制御部11で実行されるOSや、画像処理部11aを構成する画像処理のためのアプリケーションプログラム又はモジュールを格納する。画像処理部11aが画像処理を実行する場合、制御部11は、格納部13から画像処理のためのアプリケーションプログラム又はモジュールを読み込む。
入力部15には、一般的な入力装置を用いることができ、例えば、キーボードやマウス、タッチパネル等を用いることができる。表示部17は、画像処理部11aにより処理された画像を表示するための表示装置であり、例えば、液晶ディスプレイや有機ELディスプレイ等を用いることができるが、これらに限定されるものではない。通信部18は、有線接続21又は無線通信23を介して、ネットワーク20に接続するための通信装置である。例えば、通信部18は、有線接続21を行うための有線LANアダプタ、又は無線通信23を行うためのWi-Fi(登録商標)(IEEE 802.11規格を使用する通信手段)やBluetooth(登録商標)等の無線通信規格に適合した通信手段を備える。電源部19は、外部電源に接続する電源装置であり、公知の電源装置を用いることができる。
[サーバ]
次に、サーバ30について、図3を参照して説明する。図3は、本発明の一実施形態に係るサーバ30を示す模式図である。サーバ30は、例えば、制御部31、格納部33、入力部35、表示部37、通信部38及び電源部39を備える。
制御部31は、サーバ30を制御する制御装置であり、例えば、中央処理装置(CPU)を含み、半導体メモリ等の主記憶装置を更に含む。また、制御部31は、サーバ30を制御するプログラムを含む。なお、サーバ30を制御するプログラムは、格納部33に格納され、制御部31で実行される。また、一実施形態において、制御部31は、サーバ30を制御するオペレーティングシステム(以下、OSとも称する。)と、画像処理プログラムを端末10に提供する画像処理プログラム提供部31a、及び画像処理のために端末10で利用されるモーション変更データを端末10に提供するモーション変更データ提供部31bを含む。画像処理プログラム提供部31aは、画像処理プログラムを端末10に提供するためのアプリケーションプログラム又はモジュールで構成される。また、モーション変更データ提供部31bは、モーション変更データを端末10に提供するためのアプリケーションプログラム又はモジュールで構成される。一実施形態において、制御部31は、オブジェクトのデータを端末10に提供するオブジェクトデータ提供部31cを更に備えてもよい。
格納部33は、ハードディスクやソリッドステートディスク(SSD)等の補助記憶装置であり、制御部31で実行されるOS、画像処理プログラム及びモーション変更データを格納する。画像処理プログラム提供部31aが画像処理プログラムを端末10に提供する場合、画像処理プログラム提供部31aは、格納部33から画像処理プログラムを読み込む。また、モーション変更データ提供部31bがモーション変更データを端末10に提供する場合、モーション変更データ提供部31bは、格納部33からモーション変更データを読み込む。
入力部35には、一般的な入力装置を用いることができ、例えば、キーボードやマウス等を用いることができる。表示部37は、サーバ30を操作するためのユーザインタフェースを表示するための表示装置であり、例えば、液晶ディスプレイや有機ELディスプレイ等を用いることができるが、これらに限定されるものではない。通信部38は、有線接続21を介して、ネットワーク20に接続するための通信装置である。例えば、通信部38は、高速な有線接続21を行うためのネットワークアダプタ又はネットワークインターフェイスカードであり、オンボードのネットワークコントローラであってもよい。通信部38は、ギガビットイーサネット(登録商標)、好ましくは10ギガビットイーサネット(登録商標)の規格に準拠した通信装置である。電源部39は、外部電源に接続する電源装置であり、公知の電源装置を用いることができる。
画像処理プログラム提供部31aは、端末10の要求に応じて、格納部33から画像処理プログラムを読み込む。画像処理プログラム提供部31aは、通信部38からネットワーク20を介して、端末10に画像処理プログラムを提供する。端末10は、サーバ30から通信部18を介して受信した画像処理プログラムを、格納部13に格納してもよく、制御部11が画像処理プログラムを読み込んでもよい。制御部11で読み込まれた画像処理プログラムは、画像処理部11aを構成し、端末10において画像処理を実行する。
また、モーション変更データ提供部31bは、端末10の要求に応じて、格納部33からモーション変更データを読み込む。モーション変更データ提供部31bは、通信部38からネットワーク20を介して、端末10にモーション変更データを提供する。端末10は、サーバ30から通信部18を介して受信したモーション変更データを、格納部13に格納してもよく、制御部11がモーション変更データを読み込んでもよい。制御部11で読み込まれたモーション変更データは、画像処理部11aでの画像処理のフィルタとして機能する。
[画像処理プログラム]
図4を参照し、本発明の一実施形態に係る画像処理プログラムについて説明する。図4は、オブジェクト90を含む動画像データ(第1の動画像データ)の一例を説明する模式図である。図4には、動画像データにおける代表的な4枚の画像を示す。図4においては、説明を簡略化するため、二次元の画像を示したが、本発明に係る画像処理プログラムは、三次元の画像に対して画像処理を行うこともできる。ここで説明する二次元座標での画像処理を三次元座標において行うことにより、三次元の画像に対する画像処理が実施可能であることは当業者にとって自明である。
図4において、画像Pは、ヒトの形状のオブジェクト90が直立した状態を示す。図4においては、オブジェクト90の右手91に特に着目して動きを説明する。オブジェクト90が直立した方向をY軸方向、Y軸方向に直交する方向をX軸方向とする。図5(a)は、右手91のX軸方向の座標を第1の動画像データの時間軸に対してプロットした模式図を示す。画像Pは、オブジェクト90がパンチをするために、右手91をY軸方向及びX軸方向に移動させた状態を示す。画像Pは、オブジェクト90がパンチをして、右手91をY軸座標がほぼ一定のまま、X軸方向にさらに移動させた状態を示す。画像Pは、オブジェクト90がパンチをした状態からパンチをするために身構えた状態に戻った状態を示し、右手91をY軸座標がほぼ一定のまま、X軸座標を戻した状態を示す。すなわち、画像P~Pは、オブジェクト90の4つの状態(第1の状態~第4の状態)を示す。
第1の動画像データは、端末10がネットワーク20を介して取得した動画像データであってもよく、端末10が生成した動画像データであってもよい。端末10で第1の動画像データを生成する場合、オブジェクト90のデータを端末10がネットワーク20を介して取得してもよい。例えば、サーバ30からオブジェクト90のデータが提供されてもよい。例えば、サーバ30の制御部31がオブジェクトデータ提供部31cを更に備え、端末10の要求に応じて、格納部33に格納されたオブジェクトのデータを、通信部38からネットワーク20を介して、端末10に提供してもよい。一実施形態において、オブジェクト90のデータは、サーバ30以外のサーバ50から提供されてもよい。すなわち、本発明に係る画像処理プログラムは、他のサーバ50から提供されたオブジェクト90のデータを用いて生成した動画像データの画像を処理してもよく、他のサーバ50から提供された動画像データの画像を処理してもよい。
例えば、オブジェクト90のデータは、オブジェクト90の骨格を規定するデータとしてオブジェクト90を構成する各パーツの長さ、可動範囲、各パーツ間の距離を座標データとして有し、オブジェクト90の表面を規定する幅や色等のスキンデータを有する。第1の動画像データは、例えば、図4に示した4枚の画像PからPに基づいて、それぞれの画像の間を補完する画像をオブジェクト90のデータを用いて動画像データに必要な枚数で生成することにより、生成することができる。
このようにして生成された第1の動画像データは、図5(a)に示したように、オブジェクト90の第1の状態~第4の状態が時間軸に対して、第1の時点~第4の時点(TからT)に均等に配置された動画像データである。第1の動画像データを端末10で再生した場合、オブジェクト90がパンチをした動きが単調になり、迫力がない動画像になってしまう。本発明の一実施形態に係る画像処理プログラムは、第1の動画像データにモーション変更データ(モーションフィルタ)を適用することにより、オブジェクト90の動きをモーションフィルタに応じて変化させた動画像データの作製を行うことが可能となる。
図5(b)は、本発明の一実施形態に係る画像処理プログラムにより、第1の動画像データにモーション変更データを適用して生成された第2の動画像データにおける右手91のX軸座標を時間軸に対してプロットした模式図を示す。また、図6は、本発明の一実施形態に係る画像処理プログラムの処理を示すフロー図である。画像処理部11aは、制御部11に格納された第1の動画像データを生成するための所与のオブジェクト90のデータを読み込む(S101)。
画像処理部11aは、読み込んだオブジェクト90のデータから、オブジェクト90が直立した状態の画像Pの第1の時点Tでの第1の状態の位置座標、オブジェクト90がパンチをするために身構えている画像Pの第2の時点Tでの第2の状態の位置座標、オブジェクト90がパンチをした画像Pの第3の時点での第3の状態の位置座標、及びオブジェクト90がパンチをした状態からパンチをするために身構えた状態に戻った画像Pの第4の時点での第4の状態の位置座標を取得する(S103)。
例えば、画像処理部11aは、第1の状態の位置座標と第2の状態の位置座標の距離Dと、第2の状態の位置座標と第3の状態の位置座標の距離Dとを比較し、距離Dが距離Dより大きいこと、第2の状態の位置座標と第3の状態の位置座標を比較して、右手91のY軸座標がほぼ一定のまま、X軸座標が大きく移動していることから、オブジェクト90がパンチをしたことを検出することができる。
画像処理部11aは、「パンチ」の動きに対応するモーション変更データ11cを格納部13から読み込む(S105)。例えば、モーション変更データ11cには、パンチをする動きの時間を短くすることが規定されており、第2の時点Tから第3の時点Tまでの第1の期間を、第1の期間とは異なる(短い)第2の期間に変更する。すなわち、第3の時点Tを第3の時点T’に変更する(S107)。また、画像処理部11aは、オブジェクト90がパンチをした画像Pの第3の時点Tからオブジェクト90がパンチをした状態からパンチをするために身構えた状態に戻った画像Pの第4の時点Tまでの期間の長さは変更しないように、第4の時点Tを第4の時点T’に変更してもよい。
画像処理部11aは、第1の状態の位置座標から第2の状態の位置座標までのオブジェクトの変位を第2の期間で行う第2の動画像データを作成する。本発明の一実施形態に係る画像処理プログラムは、これらの画像処理を端末10に実行させることができる。このようにして、画像処理プログラムは、迫力のある第2の動画像データを生成することができる。
[モーション変更データの変形例]
上述した実施形態においては、オブジェクト90の動きの時間を短くすることによりオブジェクト90の動きにメリハリをつける例を示したが、本発明に係るモーション変更データは、これに限定されない。以下では、スローモーションをかける又は動きを滑らかにする例について説明する。
第1の動画像における右手91のX軸方向の座標を第1の動画像データの時間軸に対してプロットした模式図は、図5(a)を参照する。図7(a)は、本発明の変形例に係るモーション変更データを適用する画像処理プログラムにより生成された第2の動画像データにおける右手91のX軸座標を時間軸に対してプロットした模式図を示す。画像処理のフローについては、図6を参照する。画像処理部11aは、制御部11に格納された第1の動画像データを生成するための所与のオブジェクト90のデータを読み込む(S101)。
画像処理部11aは、読み込んだオブジェクト90のデータから、オブジェクト90が直立した状態の画像Pの第1の時点Tでの第1の状態の位置座標、オブジェクト90がパンチをするために身構えている画像Pの第2の時点Tでの第2の状態の位置座標、オブジェクト90がパンチをした画像Pの第3の時点での第3の状態の位置座標、及びオブジェクト90がパンチをした状態からパンチをするために身構えた状態に戻った画像Pの第4の時点での第4の状態の位置座標を取得する(S103)。
例えば、画像処理部11aは、第1の状態の位置座標と第2の状態の位置座標の距離Dと、第2の状態の位置座標と第3の状態の位置座標の距離Dとを比較し、距離Dが距離Dより大きいこと、第2の状態の位置座標と第3の状態の位置座標を比較して、右手91のY軸座標がほぼ一定のまま、X軸座標が大きく移動していることから、オブジェクト90がパンチをしたことを検出することができる。
画像処理部11aは、「パンチ」の動きに対応するモーション変更データ11cを格納部13から読み込む(S105)。モーション変更データ11cには、パンチをする動きの時間を長くすることによりスローモーションを実行することが規定されており、第2の時点Tから第3の時点Tまでの第1の期間を、第1の期間とは異なる(長い)第2の期間に変更する。すなわち、第3の時点Tを第3の時点T’に変更する(S107)。また、画像処理部11aは、オブジェクト90がパンチをした画像Pの第3の時点Tからオブジェクト90がパンチをした状態からパンチをするために身構えた状態に戻った画像Pの第4の時点Tまでの期間の長さは変更しないように、第4の時点Tを第4の時点T’に変更してもよい。
画像処理部11aは、第1の状態の位置座標から第2の状態の位置座標までのオブジェクトの変位を第2の期間で行う第2の動画像データを作成する。本変形例に係る画像処理プログラムは、これらの画像処理を端末10に実行させることができる。このようにして、画像処理プログラムは、スローモーションをかけた又は動きを滑らかにした第2の動画像データを生成することができる。
さらなる変形例を図7(b)に示す。図7(b)は、オブジェクト90のパンチの動きを加速度的に変化させるモーション変更データ11cを適用する画像処理プログラムにより生成された第2の動画像データにおける右手91のX軸座標を時間軸に対してプロットした模式図を示す。図5(b)に示した第2の時点Tから第3の時点T’までの第2の期間の線形的なX軸座標の変化を、図7(b)に示した第2の時点Tから第3の時点T’までの第2の期間の非線形的なX軸座標の変化に変更したこと以外は、上述した画像処理方法と同じであるため、詳細な説明は省略する。本発明に係る画像処理プログラムは、モーション変更データ11cを適用して第2の動画像データを生成することにより、再生した動画像データにおけるオブジェクト90の動きに様々な効果を付与することができる。
[フィルタをかけるタイミングの検出]
上述したように、本発明に係る画像処理プログラムは、第1の動画像データから、オブジェクト90の動きを検出して、モーション変更データ11cを選択して、モーション変更データ11cに規定された動きを端末10で実行することができる。以下に、フィルタをかけるタイミングの検出方法について、更に説明する。
図8は、本発明の一実施形態に係る画像処理プログラムの画像処理のフローを示す。例えば、画像処理部11aは、格納部33に格納された第1の動画像データを読み込む(S201)。画像処理部11aは、読み込んだオブジェクト90のデータから、オブジェクト90が直立した状態の画像Pの第1の時点Tでの第1の状態の位置座標、オブジェクト90がパンチをするために身構えている画像Pの第2の時点Tでの第2の状態の位置座標、オブジェクト90がパンチをした画像Pの第3の時点での第3の状態の位置座標、及びオブジェクト90がパンチをした状態からパンチをするために身構えた状態に戻った画像Pの第4の時点での第4の状態の位置座標を取得する。
画像処理部11aは、第1の動画像データに含まれるオブジェクト90の動きが所定の条件(第1条件)を満たすか判断する(S203)。第1条件は、例えば、オブジェクト90の第1の状態の位置座標と第2の状態の距離Dと、第2の状態の位置座標と第3の状態の位置座標の距離Dとの差が所定の閾値を超える又は下回ることであってもよい。また、三次元座標においては、距離の変化だけではなく、角速度を指標として第1条件を設定してもよい。
画像処理部11aは、第1の動画像データにおいて第1条件を満たす期間を決定する。画像処理部11aは、第1の動画像データに含まれる第1条件を満たす動きに基づいて、第1の状態と第2の状態とを決定する(S205)。第2の状態を画像処理する動き開始時点として決定し、第3の状態を画像処理する動き終了時点として決定することができる。なお、第1の状態と第2の状態は、第1の動画像データにおける始点と終点の動き以外から選択するようにしてもよい。
画像処理部11aは、格納部13に格納されたモーション変更データの中から、検出した動きに対応するモーション変更データ11cを選択する(S207)。画像処理部11aは、第1の動画像データに基づいて第2の動画像を作成するための、モーション変更データ11cの指定を受け付ける(S209)。
画像処理部11aは、モーション変更データ11cに基づいて第2の期間を設定して、第1の動画像データから第2の動画像データを生成することができる(S211)。以上説明したように、本発明に係る画像処理プログラムは、第1の動画像データからオブジェクト90の動きを検出し、検出した動きに適したフィルタを選択して、第2の動画像データを生成することができる。これにより、再生した動画像データにおけるオブジェクト90の動きに様々な効果を付与することができる。
[フィルタをかけるタイミングの検出の変形例]
上述した実施形態においては、第1の動画像データに含まれるオブジェクト90の動きに基づいて、フィルタをかけるタイミングを検出する例を説明した。本発明に係る画像処理プログラムは、第1の画像データと同期再生される音声データに基づいてフィルタをかけるタイミングを検出してもよい。図9は、本発明の一実施形態に係る画像処理プログラムの画像処理のフローを示す。また、図10に、右手91のX軸方向の座標を第1の動画像データの時間軸に対してプロットした模式図を再掲するとともに、第1の画像データと同期再生される音声データを時間軸に対してプロットした模式図を示す。
例えば、画像処理部11aは、格納部33に格納された第1の動画像データと、第1の画像データと同期再生される音声データを読み込む(S301)。画像処理部11aは、読み込んだオブジェクト90のデータから、オブジェクト90が直立した状態の画像Pの第1の時点Tでの第1の状態の位置座標、オブジェクト90がパンチをするために身構えている画像Pの第2の時点Tでの第2の状態の位置座標、オブジェクト90がパンチをした画像Pの第3の時点での第3の状態の位置座標、及びオブジェクト90がパンチをした状態からパンチをするために身構えた状態に戻った画像Pの第4の時点での第4の状態の位置座標を取得する。
画像処理部11aは、音声データが所定の条件(第2条件)を満たす音声データを含むか判断する(S303)。図10においては、オブジェクト90がパンチをした画像Pに対応する第3の時点Tにおいて、音声データに効果音が付与されている。特定の波長の音声データに、ベースラインSからピークSが現れる。音声データにおける所定の閾値を超えることを第2条件として、画像処理部11aはピークSを検出することができる。また、一実施形態において、図10に示したように、第1の動画像データにおける第2の時点Tと第3の時点Tとの間に、音声データのうち所定の波形の再生期間(ピークSの再生期間)の少なくとも一部が含まれる。
画像処理部11aは、第1の画像データと同期再生される音声データのうち、第2条件を満たす音声の再生時点に基づいて、第1の状態と第2の状態とを決定する(S305)。
画像処理部11aは、格納部13に格納されたモーション変更データの中から、検出した動きに対応するモーション変更データ11cを選択する(S307)。画像処理部11aは、第1の動画像データに基づいて第2の動画像を作成するための、モーション変更データ11cの指定を受け付ける(S309)。
画像処理部11aは、モーション変更データ11cに基づいて第2の期間を設定して、第1の動画像データから第2の動画像データを生成することができる(S311)。以上説明したように、本発明に係る画像処理プログラムは、第1の画像データと同期再生される音声データから動きとタイミングを検出し、検出した動きとタイミングに適したフィルタを選択して、第2の動画像データを生成することができる。また、端末10はユーザの操作に基づいて、複数のフィルタの中から適用させるフィルタを選択し、選択したフィルタに基づいて上記の第2の動画像データを生成可能である。これにより、再生した動画像データにおけるオブジェクト90の動きに様々な効果を付与することができる。
[AR空間へオブジェクトの配置]
一実施形態において、上述した画像処理プログラムは、三次元座標を有するオブジェクトを含む動画像データにも適用することができる。端末10が撮像部を更に備え、画像処理プログラムにより生成された第2の同画像データを、撮像部により撮影された実画像と組合せることにより、AR空間へのオブジェクト1の配置が可能である。例えば、実画像に基準点を設定し、基準点に第2の同画像データの三次元座標を対応付けることにより、AR空間へのオブジェクト1の配置を実現することができる。
1 画像処理プログラム提供システム、10 端末、10A 携帯電話端末、10B 携帯型データ端末、10C パーソナルコンピュータ、11 制御部、11a 画像処理部
11b 条件検出部、11c モーション変更データ、11C モーション変更データ、13 格納部、15 入力部、17 表示部、18 通信部、19 電源部、20 ネットワーク、21 有線接続、23 無線通信、30 画像処理プログラム提供サーバ、31 制御部、31a 画像処理プログラム提供部、31b モーション変更データ提供部、31c オブジェクトデータ提供部、33 格納部、35 入力部、37 表示部、38 通信部、39 電源部、50 サーバ、90 オブジェクト、91 右手

Claims (4)

  1. 第1の動画像データを生成するための所与のオブジェクトのデータから、前記オブジェクトの第1の時点での第1の状態の位置座標と、前記オブジェクトの第2の時点での第2の状態の位置座標とを取得し、
    前記第1の時点から前記第2の時点までの第1の期間を、前記第1の期間とは異なる第2の期間に変更し、
    前記第1の状態の位置座標から前記第2の状態の位置座標までの前記オブジェクトの変位を前記第2の期間で行う第2の動画像データを生成し、
    前記第1の動画像データと同期再生される音声データのうち、音量が所定の閾値を超える音声の再生時点に基づいて、前記第1の状態と前記第2の状態とを決定することを情報処理装置に実行させるための画像処理プログラム。
  2. 前記第1の動画像データに基づいて前記第2の動画像データを作成するための、モーション変更データの指定を受け付け、
    前記第2の期間は、前記モーション変更データに基づいて設定される請求項1に記載の画像処理プログラム。
  3. 前記第1の動画像データと前記第2の動画像データはそれぞれ情報処理装置で再生可能である請求項1又は2に記載の画像処理プログラム。
  4. 所与のオブジェクトの第1の動画像データを格納する格納部と、
    前記所与のオブジェクトの第1の動画像データから、前記オブジェクトの第1の時点での第1の状態の位置座標と、前記オブジェクトの第2の時点での第2の状態の位置座標とを取得し、前記第1の時点から前記第2の時点までの第1の期間を、前記第1の期間とは異なる第2の期間に変更し、前記第1の状態の位置座標から前記第2の状態の位置座標までの前記オブジェクトの変位を前記第2の期間で行う第2の動画像データを生成し、前記第1の動画像データと同期再生される音声データのうち、音量が所定の閾値を超える音声の再生時点に基づいて、前記第1の状態と前記第2の状態とを決定する画像処理部と、を備える画像処理装置。
JP2019062699A 2019-03-28 2019-03-28 画像処理プログラム及び画像処理装置 Active JP7280493B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019062699A JP7280493B2 (ja) 2019-03-28 2019-03-28 画像処理プログラム及び画像処理装置
JP2023075631A JP2023095940A (ja) 2019-03-28 2023-05-01 画像処理プログラム及び画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019062699A JP7280493B2 (ja) 2019-03-28 2019-03-28 画像処理プログラム及び画像処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023075631A Division JP2023095940A (ja) 2019-03-28 2023-05-01 画像処理プログラム及び画像処理装置

Publications (2)

Publication Number Publication Date
JP2020161053A JP2020161053A (ja) 2020-10-01
JP7280493B2 true JP7280493B2 (ja) 2023-05-24

Family

ID=72639585

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019062699A Active JP7280493B2 (ja) 2019-03-28 2019-03-28 画像処理プログラム及び画像処理装置
JP2023075631A Pending JP2023095940A (ja) 2019-03-28 2023-05-01 画像処理プログラム及び画像処理装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023075631A Pending JP2023095940A (ja) 2019-03-28 2023-05-01 画像処理プログラム及び画像処理装置

Country Status (1)

Country Link
JP (2) JP7280493B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014109988A (ja) 2012-12-04 2014-06-12 Nippon Hoso Kyokai <Nhk> モーション映像生成装置及びモーション映像生成プログラム
JP2015032032A (ja) 2013-07-31 2015-02-16 Kddi株式会社 仕草生成装置、仕草生成システム、仕草生成方法およびコンピュータプログラム
WO2015194509A1 (ja) 2014-06-20 2015-12-23 株式会社ソニー・コンピュータエンタテインメント 動画像生成装置、動画像生成方法、プログラム、及び情報記憶媒体
JP2016118936A (ja) 2014-12-21 2016-06-30 livepass株式会社 動画生成システム及び料金通知方法
WO2016121921A1 (ja) 2015-01-30 2016-08-04 株式会社電通 コンピュータグラフィックスのデータ構造、情報処理装置、情報処理方法及び情報処理システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10319957A (ja) * 1997-05-23 1998-12-04 Enix:Kk キャラクタ舞踏動作表示装置、方法および記録媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014109988A (ja) 2012-12-04 2014-06-12 Nippon Hoso Kyokai <Nhk> モーション映像生成装置及びモーション映像生成プログラム
JP2015032032A (ja) 2013-07-31 2015-02-16 Kddi株式会社 仕草生成装置、仕草生成システム、仕草生成方法およびコンピュータプログラム
WO2015194509A1 (ja) 2014-06-20 2015-12-23 株式会社ソニー・コンピュータエンタテインメント 動画像生成装置、動画像生成方法、プログラム、及び情報記憶媒体
JP2016118936A (ja) 2014-12-21 2016-06-30 livepass株式会社 動画生成システム及び料金通知方法
WO2016121921A1 (ja) 2015-01-30 2016-08-04 株式会社電通 コンピュータグラフィックスのデータ構造、情報処理装置、情報処理方法及び情報処理システム

Also Published As

Publication number Publication date
JP2020161053A (ja) 2020-10-01
JP2023095940A (ja) 2023-07-06

Similar Documents

Publication Publication Date Title
US20220129060A1 (en) Three-dimensional object tracking to augment display area
CN109416580B (zh) 用于选择场景中的对象的系统、方法和可穿戴计算设备
KR102038638B1 (ko) 가상 현실에서 핸드 헬드 디바이스를 트랙킹하는 시스템
US11119581B2 (en) Displacement oriented interaction in computer-mediated reality
JP6609994B2 (ja) 表示制御方法、情報処理装置及び表示制御プログラム
JP5833750B2 (ja) コンピュータビジョンの応用例で対話の範囲を拡大するジェスチャ制御による技術
US9223487B2 (en) Electronic apparatus, method of controlling the same, and related computer program
CN103839254B (zh) 基于用户交互的轮廓分割设备和方法
EP3807847A1 (en) Reconstruction of 3d model with immersive experience
EP3452886A1 (en) Identification of objects in a scene using gaze tracking techniques
KR20160057407A (ko) 동시적 호버 및 터치 인터페이스
EP3549003B1 (en) Collaborative manipulation of objects in virtual reality
JP2016500872A (ja) アプリケーションとの対話処理としてのマルチモード・ユーザー表現およびユーザー感覚量
US11132842B2 (en) Method and system for synchronizing a plurality of augmented reality devices to a virtual reality device
CN109906424A (zh) 用于虚拟现实系统的输入控制器稳定技术
EP3047366B1 (en) Detecting primary hover point for multi-hover point device
JP2016212887A (ja) 情報処理装置、情報処理プログラム、及び情報処理方法
CN114638939A (zh) 模型生成方法、模型生成装置、电子设备和可读存储介质
JP7280493B2 (ja) 画像処理プログラム及び画像処理装置
KR101809601B1 (ko) 애니메이션 제작 장치 및 방법
CN116954387A (zh) 一种终端键盘输入交互的方法、装置、终端及介质
CN109643143B (zh) 通过无线通信装置提供感测能力
KR102656963B1 (ko) 전자 장치 및 전자 장치의 제어 방법
JP2004013705A (ja) ポインティングデバイスのセットアップ方法と該方法を記録した記録媒体および携帯端末
JP2016118947A (ja) 角度調整可能な仮想平面を用いた空間手書き入力システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230424

R150 Certificate of patent or registration of utility model

Ref document number: 7280493

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150