JP2021077300A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2021077300A
JP2021077300A JP2019205842A JP2019205842A JP2021077300A JP 2021077300 A JP2021077300 A JP 2021077300A JP 2019205842 A JP2019205842 A JP 2019205842A JP 2019205842 A JP2019205842 A JP 2019205842A JP 2021077300 A JP2021077300 A JP 2021077300A
Authority
JP
Japan
Prior art keywords
light source
captured image
information processing
image data
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019205842A
Other languages
English (en)
Other versions
JP7433849B2 (ja
JP2021077300A5 (ja
Inventor
秀幸 ▲高▼橋
秀幸 ▲高▼橋
Hideyuki Takahashi
山崎 健史
Takeshi Yamazaki
健史 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019205842A priority Critical patent/JP7433849B2/ja
Publication of JP2021077300A publication Critical patent/JP2021077300A/ja
Publication of JP2021077300A5 publication Critical patent/JP2021077300A5/ja
Application granted granted Critical
Publication of JP7433849B2 publication Critical patent/JP7433849B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)

Abstract

【課題】 撮像画像上の任意の領域に対応する物体がどの方向から光が照射されているかをユーザに知らせるための処理を提供することを目的とする。【解決手段】 情報処理装置であって、光源から光が照射された物体を含むシーンを撮像して得られる撮像画像データを取得する取得手段と、ユーザにより指定された、前記撮像画像データが表す撮像画像における領域を表す領域情報を受け付ける受付手段と、前記撮像画像データに基づいて、前記ユーザにより指定された領域に対応する前記物体に光を照射する前記光源の方向を推定する推定手段と、前記推定された光源の方向を特定するための情報を、前記撮像画像と併せて表示手段に表示する表示制御手段と、を有することを特徴とする。【選択図】 図6

Description

本発明は、物体に光を照射する光源に関する情報を推定するための技術に関する。
従来、物体の周囲の環境における光源の方向や位置を推定する技術がある。特許文献1は、撮像画像と環境マップとを用いて光源の方向を推定し、CG画像を生成する技術を開示している。
特開2014−164497号公報
しかし、特許文献1では、どの方向から光が照射されているかを知りたい物体がある場合に、CG画像を見るだけでは該方向をユーザが知ることは難しかった。
本発明は、上記課題を鑑みてなされたものであり、撮像画像上の任意の領域に対応する物体がどの方向から光が照射されているかをユーザに知らせるための処理を提供することを目的とする。
上記課題を解決するために、本発明に係る情報処理装置は、光源から光が照射された物体を含むシーンを撮像して得られる撮像画像データを取得する取得手段と、ユーザにより指定された、前記撮像画像データが表す撮像画像における領域を表す領域情報を受け付ける受付手段と、前記撮像画像データに基づいて、前記ユーザにより指定された領域に対応する前記物体に光を照射する前記光源の方向を推定する推定手段と、前記推定された光源の方向を特定するための情報を、前記撮像画像と併せて表示手段に表示する表示制御手段と、を有することを特徴とする。
本発明によれば、撮像画像上の任意の領域に対応する物体がどの方向から光が照射されているかをユーザに知らせることができる。
生徒データを得るための撮像の様子を示す図 光の当たり方に応じた色の変化を説明するための図 教師データを得るための撮像の様子を示す図 撮像された画像内の鏡面球に写り込む光源を説明するための図 光源推定システムのハードウェア構成を示すブロック図 光源推定システムの機能構成を示すブロック図 ニューラルネットワークを説明するための図 光源の方向を表示する際の表示例を示す図 情報処理装置が実行する処理を示すフローチャート 光源ベクトルを導出する処理を説明するための図 光の当たり方に応じた色の変化を説明するための図 ユーザの指定を受け付ける方法を説明するための図
以下、本実施形態について、図面を参照して説明する。尚、以下の実施形態は本発明を必ずしも限定するものではない。また、本実施形態において説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。
[第1実施形態]
光源の方向を推定する技術として、対象の物体と鏡面球とを同じ撮像範囲に含めて撮像を行うことにより、対象の物体に光を照射する光源の方向を推定する技術がある。しかしこの技術では、光源の方向を推定する度に鏡面球を画像内に写り込ませる必要がある。そこで、本実施形態においては、人物や車などの物体を含むシーンを撮像して得られる画像データと、鏡面球を撮像して得られる画像データと、を学習データとして学習モデルを予め生成しておく。予め生成しておいた学習モデルから出力される情報を基に、画像上の任意の領域に対応する物体に光を照射する光源の方向を推定する。これにより、鏡面球を毎度用意することなく、画像上の任意の領域に対応する光源の方向を知ることができる。
学習モデルに学習させる入力用の画像データ(以下、生徒データと呼ぶ)は、人物や車などの物体を含むシーンを撮像して得られる画像データである。図1は、生徒データを得るための撮像の様子を示す図である。箱A、箱B、車C、人物Dを含むシーン3は、光源4の方向を変化させながら撮像装置5により撮像される。箱A、箱B、車C、人物Dはいずれも、光源4の位置に応じて色が変化しやすい物体であるものとする。例えば、車のボディは、一般的に金属で作られているため、入射した光を鏡面反射しやすい。このため、車のボディに対する光の当たり方に応じて鏡面反射光がどの程度観察されるかが変わる。図2に光の当たり方に応じた色の見え方を示す。また、人物の場合、図11のように、髪や肌、衣服の色が光源の位置に応じて変化する。
また、学習モデルに学習させる出力用の画像データ(以下、教師データと呼ぶ)は、鏡面球をシーン3と同じ撮像条件において撮像して得られる画像データである。図3は、教師データを得るための撮像の様子を示す図である。鏡面球E、鏡面球F、鏡面球G、鏡面球Hはそれぞれ、箱A、箱B、車C、人物Dと同一の位置に配置されている。以下、鏡面球E、鏡面球F、鏡面球G、鏡面球Hをまとめて鏡面球6と呼ぶ。鏡面球6は、光源4の方向を変化させながら撮像装置5により撮像される。撮像により得られる画像内の鏡面球には、図4のように光源が写り込む。写り込んだ鏡面球内の光源の位置を基に、光源の方向を推定することができる。鏡面球に対する光の当たり方とシーンに含まれる物体の色味の変化との相関関係を学習モデルに学習させることによって、光源の方向を推定する学習モデルを生成する。具体的には、本実施形態における学習モデルは、物体の撮像画像データを入力とした場合に、該物体に光を照射する光源の方向を推定するために用いられる鏡面球の画像データを出力する学習モデルである。尚、本実施形態においては、光源の方向を変化させながら物体と鏡面球とを同一位置に配置して撮像を行い、同じ撮像条件の生徒データと教師データとをセットとして機械学習に用いる。尚、本実施形態においては、物体と鏡面球とを同一位置に配置したが、撮像の環境が同じであれば多少位置が異なっていてもよい。
<光源推定システムの構成>
本実施形態における光源推定システムは、図5(a)に示すように、学習モデルを生成する情報処理装置1と、学習モデルから出力される画像データを基に光源情報推定を行う情報処理装置2と、から構成される。
<情報処理装置のハードウェア構成>
図5(b)は、情報処理装置1のハードウェア構成を示すブロック図である。情報処理装置1は、CPU101、ROM102、RAM103を備える。また、情報処理装置1は、VC(ビデオカード)104、汎用I/F(インターフェース)105、SATA(シリアルATA)I/F106、NIC(ネットワークインターフェースカード)107を備える。CPU101は、RAM103をワークメモリとして、ROM102、HDD(ハードディスクドライブ)113などに格納されたOS(オペレーティングシステム)や各種プログラムを実行する。また、CPU101は、システムバス108を介して各構成を制御する。尚、後述するフローチャートによる処理は、ROM102やHDD113などに格納されたプログラムコードがRAM103に展開され、CPU101によって実行される。VC104には、ディスプレイ115が接続される。汎用I/F105には、シリアルバス109を介して、マウスやキーボードなどの入力デバイス110や撮像装置111が接続される。SATAI/F106には、シリアルバス112を介して、HDD113や各種記録メディアの読み書きを行う汎用ドライブ114が接続される。NIC107は、外部装置との間で情報の入力及び出力を行う。CPU101は、HDD113や汎用ドライブ114にマウントされた各種記録メディアを各種データの格納場所として使用する。CPU101は、プログラムによって提供されるGUI(グラフィカルユーザインターフェース)をディスプレイ115に表示し、入力デバイス110を介して受け付けるユーザ指示などの入力を受信する。尚、情報処理装置2も情報処理装置1と同様のハードウェア構成であるため説明を省略する。
<光源推定システムの機能構成>
図6は、情報処理装置1と情報処理装置2とを含む光源推定システムの機能構成を示すブロック図である。CPU101は、RAM103をワークメモリとして、ROM102又はHDD113に格納されたプログラムを読み出して実行することによって、図6に示す機能構成として機能する。尚、以下に示す処理の全てがCPU101によって実行される必要はなく、処理の一部または全てがCPU101以外の一つまたは複数の処理回路によって行われるように光源推定システムが構成されていても良い。
情報処理装置1は、学習画像取得部201、学習モデル生成部202を有する。学習画像取得部201は、学習モデルを生成するための学習に用いる生徒データと教師データとの複数のセットを取得する。生徒データは、上述したように、光源の位置を変化させながら複数の物体を含むシーンを複数回撮像して得られる画像データである。尚、シーンに含まれる物体は箱や車、人物に限られず、光源4の位置に応じて色が変化しやすい物体であれば建造物など他の物体でもよい。また、物体の数及び配置も図1の例に限られず、鏡面球が各物体と略同一位置に配置できればどのような配置であってもよい。教師データは、上述したように、光源の位置を変化させながらシーンに含まれる各物体と同一位置に配置された複数の鏡面球を複数回撮像して得られる画像データである。学習画像取得部201は、光源の位置が同じ条件において撮像された画像データをセットとして取得する。学習モデル生成部202は、生徒データと教師データとの複数のセットに基づいて、光源を含む環境に関する情報を推定するための学習モデルを生成する。本実施形態における学習モデルは、入力画像データから、入力画像データに対応する鏡面球の画像データを出力するニューラルネットワークに基づくネットワーク構造とそのパラメータである。
ここでニューラルネットワークについて説明する。尚、ニューラルネットワークの原理自体は公知であるため、簡単に説明する。図7は、ニューラルネットワークを説明する図である。図7では中間層を1層としているが、2層以上で中間層を構成することが望ましい。図7に示すニューラルネットワークでは、入力層はMi個のノード(n11、n12、…、n1Mi)を有し、中間層はMh個のノード(n21、n22、…、n2Mh)を有し、出力層(最終層)はMo個のノード(n31、n32、…、n3Mo)を有している。そして、各層のノードは隣接する層の全てのノードと結合しており、階層間で情報伝達を行う3層の階層型ニューラルネットワークを構成している。
入力層に画像を入力する場合、該入力層には、画素とノードとが1対1となるように、画素数分のノードを設ける。また、出力層においても出力する画素数分のノードが設定されている。例えば、16画素×16画素の画像が入力される場合、16画素×16画素の画素値を出力するため、入力層および出力層におけるノードは256個である。データは、図7の左から右へ、即ち、入力層、中間層、出力層の順で受け渡される。入力層の各ノードは中間層のすべてのノードに接続され、ノード間の接続はそれぞれ重みを持っている。一方のノードから結合を通して他方のノードに伝達される際の出力値は、結合の重みによって増強あるいは減衰される。このような接続に定められた重み係数、バイアス値の集合は学習モデルのパラメータである。なお活性化関数については特に限定しないが、ロジスティックシグモイド関数やRectified Linear Unit(ReLU)関数などを用いれば良い。学習方法としては、種々提案されているニューラルネットワークの学習方法を適用すれば良い。例えば、入力層に生徒データを入力してニューラルネットワークを動作させた場合に出力層から得られる出力と、該生徒データに予め対応づけられている教師データと、の差分を計算し、該差分を極小化するように、重み係数及びバイアス値を調整する。
情報処理装置2は、入力画像取得部211、球画像生成部212、指定受付部213、抽出部214、推定部215、表示制御部216を有する。入力画像取得部211は、複数の物体を含むシーンを撮像して得られる入力画像データを取得する。本実施形態においては、生徒データと同様に、箱A、箱B、車C、人物Dを含むシーンが撮像されることにより入力画像データが得られる。尚、シーンに含まれる物体は、人物や車に限られないが、学習に用いられた物体が含まれていることが望ましい。球画像生成部212は、情報処理装置1が生成した学習モデルを用いて、鏡面球画像データを生成する。具体的には、学習モデルに入力画像取得部211が取得した入力画像データを入力することによって、学習モデルから出力される鏡面球画像データを取得する。指定受付部213は、ユーザが指定した領域を表す領域情報を取得する。具体的には、指定受付部213は、ディスプレイ115に表示された入力画像においてユーザが指定した領域の座標を領域情報として取得する。図12は、ユーザの指定を受け付ける方法を説明するための図である。ディスプレイ115に表示された入力画像1201は4つの領域に区切られており、ユーザにより箱Aを含む領域が指定されている。以下、入力画像において箱Aを含む領域を領域Aと呼ぶ。枠1202は、指定されている領域を示している。OKボタン1203は、指定が完了した場合に押下されるボタンである。抽出部214は、領域情報に基づいて、入力画像においてユーザが指定した領域と同じ座標の領域を鏡面球画像から抽出する。つまり、領域情報が領域Aを表す場合、抽出部214は、鏡面球画像における鏡面球Eを含む領域(以下、領域Eと呼ぶ)を抽出する。推定部215は、鏡面球画像データに基づいて、複数の物体を含むシーンを撮像する際の環境に含まれる光源の情報を推定する。本実施形態において推定する光源の情報は、入力画像データを得るための撮像の際に、ユーザに指定された領域に対応する物体に光を照射する光源の方向である。ユーザに指定された領域に対応する物体に光を照射する光源の方向を推定する方法は後述する。
表示制御部216は、入力画像データが表す入力画像と、推定部215により推定された光源の方向を特定する情報と、を併せてディスプレイ115に表示させる。光源の方向を表示する際の表示例を図8(a)に示す。入力画像81と指定された領域Aを示す枠82とが表示されている。また、光源の方向を表す矢印83が領域Aに重畳して表示されている。尚、光源の方向を示す方法は矢印に限られない。例えば、図8(b)のように、光源に近い位置を明るく、光源から遠い位置を暗くするグラデーションを指定された領域に付加してもよい。
<情報処理装置1が実行する処理(学習モデルの生成)>
図9(a)は、情報処理装置1が実行する処理を示すフローチャートである。以下、図9(a)を参照して情報処理装置1の処理の詳細を説明する。図9(a)のフローチャートが示す処理は、ユーザによって入力デバイス110を介して指示が入力され、CPU101が入力された指示を受け付けることにより開始する。以下、各ステップ(工程)は符号の前にSをつけて表す。
S301において、学習画像取得部201は、生徒データと教師データとの複数のセットを取得する。S302において、学習モデル生成部202は、生徒データと教師データとの複数のセットに基づいて、光源の方向を推定するために用いられる学習モデルを生成する。S303において、学習モデル生成部202は、生成した学習モデルを情報処理装置2に出力する。
<情報処理装置2が実行する処理(光源情報の推定)>
図9(b)は、情報処理装置1が実行する処理を示すフローチャートである。以下、図9(b)を参照して情報処理装置1の処理の詳細を説明する。図9(b)のフローチャートが示す処理は、ユーザによって入力デバイス110を介して指示が入力され、CPU101が入力された指示を受け付けることにより開始する。以下、各ステップ(工程)は符号の前にSをつけて表す。
S311において、入力画像取得部211は、入力画像データを取得する。S312において、指定受付部213は、ユーザが指定した領域を表す領域情報を取得する。S313において、球画像生成部212は、入力画像データと学習モデルとに基づいて、鏡面球画像データを生成する。S314において、抽出部214は、領域情報に基づいて、入力画像においてユーザが指定した領域と同じ座標の領域を鏡面球画像から抽出する。S315において、推定部215は、鏡面球画像から抽出された領域に基づいて、ユーザに指定された領域に対応する物体に光を照射する光源の方向を推定する。以下に光源の方向を推定する方法の詳細を説明する。
鏡面球画像データが表す画像内の鏡面球には、図4のように光源が写り込んでいる。図10は、光源4から対象の物体へ照射する光の方向を表す光源ベクトルを導出する処理を説明するための図である。円1001は、鏡面球画像における鏡面球6であり、対象の物体の表面に対して方位角方向のどの角度に光源が存在するかを示している。半円1002は、対象の物体の表面に対して仰角方向のどの角度に光源が存在するかを示している。S315において、推定部215は、まず、鏡面球画像における鏡面球6に対応する領域の中心の画素位置を導出する。具体的には、鏡面球画像の画素値を2値化する。この2値化処理は、所定の閾値以上の画素値を有する画素を白、所定の閾値未満の画素値を有する画素を黒とする2値化処理である。2値化処理後の鏡面球画像において公知のキャニー法を用いてエッジ位置を抽出し、8つの近傍画素にエッジ位置がある画素を同一の輪郭とみなしてグループ化する輪郭抽出を行う。抽出した複数の輪郭グループの中から円又は楕円の輪郭を選択する。円又は楕円の輪郭が1つである場合は、その1つを鏡面球6に対応する領域とし、エッジ位置上において所定の距離以上離れた3点の重心を、鏡面球6に対応する領域の中心の画素位置とする。尚、重心の導出の方法は、エッジ位置上の少なくとも3点を用いればよく、より多くの点を用いることによって、より高精度に鏡面球6に対応する領域の中心の画素位置を導出できる。円又は楕円の輪郭が複数ある場合は、輪郭内の平均輝度が最も高い輪郭を、鏡面球6に対応する領域とする。次に、鏡面球6に映り込んだ光源4の中心の画素位置を導出する。ここでは、鏡面球画像における鏡面球6に対応する領域の中で、輝度が最も大きい画素を光源4の中心の画素位置とする。
次に、推定部215は、図10に示すxl、ylを算出する。xl、ylはそれぞれ、鏡面球6に対応する領域の中心の画素位置から、光源4の中心の画素位置までのx方向、y方向の画素数である。次に、式(1)を用いて、zlを導出する。
Figure 2021077300
ここで、rは鏡面球画像における鏡面球6の半径である。半径rは、鏡面球6に対応する領域の中心の画素位置から、鏡面球6に対応する領域のエッジ位置までの画素数とする。以上の処理により、光源の方向を示す光源ベクトル(xl,yl,zl)が得られる。
S316において、表示制御部216は、入力画像データが表す入力画像と、推定部215により推定された光源の方向を特定する情報と、を併せてディスプレイ115に表示させる。
<第1実施形態の効果>
以上説明したように、本実施形態における情報処理装置は、光源から光が照射された物体を含むシーンを撮像して得られる撮像画像データを取得する。ユーザにより指定された、撮像画像データが表す撮像画像における領域を表す領域情報を受け付ける。撮像画像データに基づいて、ユーザにより指定された領域に対応する物体に光を照射する光源の方向を推定する。推定した光源の方向を特定するための情報を、撮像画像と併せて表示部に表示する。これにより、撮像画像上の任意の領域に対応する物体がどの方向から光が照射されているかをユーザに知らせることができる。
[変形例]
上述した実施形態においては、情報処理装置1と情報処理装置2とが別々の装置であったが、1つの情報処理装置が、学習モデルの生成、光源情報の推定を行っても良い。
上述した実施形態においては、生成した学習モデルから出力された鏡面球画像を基に光源の方向を推定したが、光源の位置や、物体の周囲にある光源の数、光源の色温度を推定しても良い。
上述した実施形態においては、ユーザに指定された領域は1つであったが、複数の領域が指定されてもよい。この場合、光源の方向はユーザに指定された領域毎に導出される。
上述した実施形態においては、光源の方向を表示して処理を終了したが、ユーザに指定された領域に対してリライティング処理をさらに行ってもよい。リライティング処理には公知の方法を用いることができる。これにより、任意の領域において、仮想的に光源の方向を変えることによる陰影を付加することができる。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
2 情報処理装置
211 入力画像取得部
213 指定受付部
215 推定部
216 表示制御部

Claims (10)

  1. 光源から光が照射された物体を含むシーンを撮像して得られる撮像画像データを取得する取得手段と、
    ユーザにより指定された、前記撮像画像データが表す撮像画像における領域を表す領域情報を受け付ける受付手段と、
    前記撮像画像データに基づいて、前記ユーザにより指定された領域に対応する前記物体に光を照射する前記光源の方向を推定する推定手段と、
    前記推定された光源の方向を特定するための情報を、前記撮像画像と併せて表示手段に表示する表示制御手段と、
    を有することを特徴とする情報処理装置。
  2. 前記受付手段は、前記撮像画像における複数の領域に対応する前記領域情報を取得し、
    前記推定手段は、前記ユーザにより指定された領域毎に、前記光源の方向を推定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記表示制御手段は、前記推定された光源の方向を表す矢印を、前記撮像画像に重畳して前記表示手段に表示することを特徴とする請求項1又は請求項2に記載の情報処理装置。
  4. 前記表示制御手段は、前記推定された光源の方向を特定するためのグラデーションを、前記撮像画像に付加することを特徴とする請求項1又は請求項2に記載の情報処理装置。
  5. 前記ユーザにより指定された領域に対してリライティング処理を行うリライティング手段をさらに有することを特徴とする請求項1乃至請求項4のいずれか一項に記載の情報処理装置。
  6. 前記推定手段は、前記光源の方向を機械学習により推定することを特徴とする請求項1乃至請求項5のいずれか一項に記載の情報処理装置。
  7. 鏡面球を撮像して得られる画像データを用いて前記光源の方向を推定するための学習モデルを生成する生成手段をさらに有することを特徴とする請求項6に記載の情報処理装置。
  8. 撮像画像を表示する表示手段と、
    前記表示されている撮像画像において、ユーザからの領域の指定を受け付ける受付手段と、を有し、
    前記表示手段は、前記ユーザから指定された領域に対応する物体に光を照射する光源の方向を表す矢印を、前記撮像画像に重畳して表示することを特徴とする情報処理装置。
  9. コンピュータを請求項1乃至請求項7のいずれか一項に記載の情報処理装置の各手段として機能させるためのプログラム。
  10. 光源から光が照射された物体を含むシーンを撮像して得られる撮像画像データを取得する取得ステップと、
    ユーザにより指定された、前記撮像画像データが表す撮像画像における領域を表す領域情報を受け付ける受付ステップと、
    前記撮像画像データに基づいて、前記ユーザにより指定された領域に対応する前記物体に光を照射する前記光源の方向を推定する推定ステップと、
    前記推定された光源の方向を特定するための情報を、前記撮像画像と併せて表示手段に表示する表示制御ステップと、
    を有することを特徴とする情報処理方法。
JP2019205842A 2019-11-13 2019-11-13 情報処理装置、情報処理方法及びプログラム Active JP7433849B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019205842A JP7433849B2 (ja) 2019-11-13 2019-11-13 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019205842A JP7433849B2 (ja) 2019-11-13 2019-11-13 情報処理装置、情報処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2021077300A true JP2021077300A (ja) 2021-05-20
JP2021077300A5 JP2021077300A5 (ja) 2022-11-18
JP7433849B2 JP7433849B2 (ja) 2024-02-20

Family

ID=75898059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019205842A Active JP7433849B2 (ja) 2019-11-13 2019-11-13 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7433849B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023228558A1 (ja) * 2022-05-23 2023-11-30 株式会社日立製作所 物体検知モデル学習装置、物体検知装置及び物体検知モデル学習方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015119277A (ja) * 2013-12-17 2015-06-25 オリンパスイメージング株式会社 表示機器、表示方法及び表示プログラム
JP2018010496A (ja) * 2016-07-14 2018-01-18 キヤノン株式会社 画像処理装置並びにその制御方法及びプログラム
JP2019185730A (ja) * 2018-03-30 2019-10-24 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2020522807A (ja) * 2017-05-31 2020-07-30 ザ プロクター アンド ギャンブル カンパニーThe Procter & Gamble Company セルフィーを撮影するためにユーザをガイドするためのシステム及び方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015119277A (ja) * 2013-12-17 2015-06-25 オリンパスイメージング株式会社 表示機器、表示方法及び表示プログラム
JP2018010496A (ja) * 2016-07-14 2018-01-18 キヤノン株式会社 画像処理装置並びにその制御方法及びプログラム
JP2020522807A (ja) * 2017-05-31 2020-07-30 ザ プロクター アンド ギャンブル カンパニーThe Procter & Gamble Company セルフィーを撮影するためにユーザをガイドするためのシステム及び方法
JP2019185730A (ja) * 2018-03-30 2019-10-24 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023228558A1 (ja) * 2022-05-23 2023-11-30 株式会社日立製作所 物体検知モデル学習装置、物体検知装置及び物体検知モデル学習方法

Also Published As

Publication number Publication date
JP7433849B2 (ja) 2024-02-20

Similar Documents

Publication Publication Date Title
JP6942488B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP6685827B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN104599287B (zh) 对象跟踪方法和装置、对象识别方法和装置
JP2018163554A (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び教師データ生成方法
JP6397379B2 (ja) 変化領域検出装置、方法、及びプログラム
Rambach et al. Learning 6dof object poses from synthetic single channel images
CN110751730B (zh) 一种基于深度神经网络的穿衣人体体型估计方法
JP6431404B2 (ja) 姿勢推定モデル生成装置及び姿勢推定装置
EP3997670A1 (en) Methods of estimating a bare body shape from a concealed scan of the body
JP2016062225A (ja) 画像生成装置、画像検出システム及び画像生成方法
KR20160144699A (ko) 2d 얼굴 이미지로부터 3d 모델을 자동 생성하는 방법
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
JP2018022247A (ja) 情報処理装置およびその制御方法
CN111861956A (zh) 图片处理方法、装置、电子设备以及介质
EP3961495B1 (en) System and method for finding an area of an eye from a facial image
JP7433849B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2017033556A (ja) 画像処理方法及び電子機器
CN110514140B (zh) 一种三维成像方法、装置、设备以及存储介质
US20220157016A1 (en) System and method for automatically reconstructing 3d model of an object using machine learning model
WO2020184006A1 (ja) 画像処理装置、画像処理方法及び非一時的なコンピュータ可読媒体
JP6306903B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP7378997B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20210218883A1 (en) Learning apparatus, image generation apparatus, learning method, image generation method, and program
JP2021092918A (ja) 画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体
JP2021077299A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231208

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240207

R151 Written notification of patent or utility model registration

Ref document number: 7433849

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151