JP7058434B1 - 生成方法、情報処理装置、プログラム、及び情報処理システム - Google Patents

生成方法、情報処理装置、プログラム、及び情報処理システム Download PDF

Info

Publication number
JP7058434B1
JP7058434B1 JP2021112509A JP2021112509A JP7058434B1 JP 7058434 B1 JP7058434 B1 JP 7058434B1 JP 2021112509 A JP2021112509 A JP 2021112509A JP 2021112509 A JP2021112509 A JP 2021112509A JP 7058434 B1 JP7058434 B1 JP 7058434B1
Authority
JP
Japan
Prior art keywords
data
score
noise
information processing
sensor data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021112509A
Other languages
English (en)
Other versions
JP2023009344A (ja
Inventor
アルトゥーロ エドゥアルド セロンロペス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2021112509A priority Critical patent/JP7058434B1/ja
Application granted granted Critical
Publication of JP7058434B1 publication Critical patent/JP7058434B1/ja
Publication of JP2023009344A publication Critical patent/JP2023009344A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 最適化されたレンダリング画像(合成データ)の生成を支援する。【解決手段】一実施形態にかかる生成方法は、情報処理装置が実行する生成方法であって、レンダリングパラメータを調整する処理と、調整した前記レンダリングパラメータに基づき合成データを生成する処理と、を含む。【選択図】図4

Description

本発明は、生成方法、情報処理装置、プログラム、及び情報処理システムに関する。
CAD(Computer Aided Design)等で用いられている三次元コンピュータグラフィックス(CG)分野において、三次元(3D;Three-Dimensional)モデルから二次元(2D;Two-Dimensional)画像を生成するためにレンダリング技術が用いられている。このレンダリング技術を用いて生成された画像をレンダリングされた画像、すなわち、レンダリング画像という。
特許第4850676号
上記先行技術文献は、人間の視覚の順応状態に基づいてレンダリング画像を作成する手法を開示しているが、外的要因をも考慮した最適化されたレンダリング画像の生成には対応できない。また、このレンダリング画像は、実画像に近いこと、すなわち、リアリスティックな画像であることが望ましい。
本発明は、上記の課題を鑑みてなされたものであり、最適化されたレンダリング画像を生成することを目的とする。この最適化されたレンダリング画像を、合成データという。
一実施形態にかかる生成方法は、情報処理装置が実行する生成方法であって、レンダリングパラメータを調整する処理と、調整した前記レンダリングパラメータに基づき合成データを生成する処理と、リアリズムスコアの値が最適になるように前記レンダリングパラメータを調整する処理と、を含み、前記リアリズムスコアは、センサデータスコア、及びノイズスコアに基づき算出され、前記センサデータスコアは、リファレンスセンサデータが利用可能な場合、前記合成データの前記リファレンスセンサデータに対する類似度を示す値であり、前記リファレンスセンサデータが利用可能ではない場合、統計値を用いて算出され、前記ノイズスコアは、リファレンスノイズ特徴量データが利用可能な場合、前記合成データのノイズプロファイルと、前記リファレンスノイズ特徴量データとの類似度を示す値であり、前記リファレンスノイズ特徴量データが利用可能ではない場合、ノイズに関する統計値を用いて算出される
一実施形態によれば、最適化されたレンダリング画像(合成データ)の生成を支援することができる。
本実施形態に係る情報処理システムの構成の一例を示す図である。 情報処理装置のハードウェア構成の一例を示す図である。 情報処理装置の機能構成の一例を示す図である。 情報処理装置が実行する制御処理の概要を示す図である。 情報処理装置が実行する制御処理の一例を示すフローチャートである。 情報処理装置が実行する制御処理の一例を示すフローチャートである。 情報処理装置が実行する制御処理の一例を示すフローチャートである。 情報処理装置が実行する制御処理の概要を示す図である。
以下、本発明の各実施形態について、添付の図面を参照しながら説明する。なお、各実施形態に係る明細書及び図面の記載に関して、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。
<システム概要>
まず、本実施形態に係る情報処理システム1の概要について説明する。本実施形態に係る情報処理システム1は、プロセスに対して提供する合成データを作成するためのシステムである。また、上述した通り、この合成データは、最適化されたレンダリング画像である。
本実施形態に係る情報処理システム1は、例えば、ロボットシステム、工場、学校等の教育関連施設、テーマパーク、運動場、体育館、店舗、公園、自宅、介護施設、病院などの任意の施設、登山や洞窟探検などの野外の環境で利用できる。
本実施形態に係る情報処理システム1の構成について図1を用いて説明する。図1は、本実施形態に係る情報処理システム1の構成の一例を示す図である。図1に示すように、本実施形態に係る情報処理システム1は、ネットワークNを介して相互に通信可能に接続された、サーバ装置10と、情報処理装置30、プロセスと、を備える。ネットワークNは、例えば、有線LAN(Local Area Network)、無線LAN、インターネット、公衆回線網、モバイルデータ通信網、又はこれらの組み合わせである。
サーバ装置10は、後述する情報処理装置30によって利用される評価データ等を管理(格納)している情報処理装置(コンピュータ)の一例である。評価データとは、後述する情報処理装置30が評価に用いる情報であり、例えば、センサデータ、ノイズ特徴量データ、統計データ等を含む。なお、本実施形態では、評価データ等を格納するサーバ装置10を設け、情報処理装置30の後述する記憶部32に同様のデータまたはその一部を格納するものとした。また、サーバ装置10に替えてデータベースを設ける構成としてもよい。データベースを備える場合、他のサーバ装置が収集した評価データ等を当該データベースに格納したり、情報処理装置30が収集した評価データ等を当該データベースに格納してもい。また、サーバ装置10を設けずに、情報処理装置30の後述する記憶部32にこれらの情報を格納してもよい。また、図1の例では、情報処理システム1がサーバ装置10を1つ備えるものとしたが、複数備えてもよい。
情報処理装置30は、サーバ装置10によって管理されている評価データ等を参照して(用いて)合成データを生成し、生成した合成データをプロセスに提供する装置(コンピュータ)である。なお、この情報処理装置30は、PC(Personal Computer)、スマートフォン、タブレット端末、サーバ、又はこれらの組み合わせである。また、図1の例では、情報処理システム1が情報処理装置30を1つ備えるものとしたが、複数備えてもよい。情報処理装置30について、詳しくは後述する。
プロセスは、合成データを用いて、ロボット等のシミュレーションを実施する。このアプリケーションは、例えば、シミュレータ、AI(Artificial Intelligence)トレーニングアプリケーション、エージェント等である。具体的に、プロセスは、情報処理装置30によって生成された合成データを参照し、例えば、ロボット操作等のシミュレーションを実施する。プロセスは、他の情報処理装置に備えられるものであってもよいし、情報処理装置30に備えられるものであってもよい。
<ハードウェア構成>
図2は、情報処理装置30のハードウェア構成の一例を示す図である。図2に示すように、情報処理装置30は、バスBを介して相互に接続された、プロセッサ301と、メモリ302と、ストレージ303と、通信I/F304と、入出力I/F305と、ドライブ装置306と、を備える。
プロセッサ301は、ストレージ303に記憶されたプログラムをメモリ302に展開して実行することにより、情報処理装置30の各構成を制御し、情報処理装置30の機能を実現する。プロセッサ301が実行するプログラムは、OS(Operating System)、及び生成プログラムを含むが、これに限られない。プロセッサ301が生成プログラムを実行することにより、本実施形態に係る遠隔生成方法が実現される。プロセッサ301は、例えば、CPU、MPU、GPU、ASIC、DSP、又はこれらの組み合わせである。
メモリ302は、例えば、ROM、RAM、又はこれらの組み合わせである。ROMは、例えば、PROM、EPROM、EEPROM、又はこれらの組み合わせである。RAMは、例えば、DRAM、SRAM、MRAM、又はこれらの組み合わせである。
ストレージ303は、OS、生成プログラム、及び各種のデータを記憶する。ストレージ303は、例えば、フラッシュメモリ、HDD、SSD、SCM、又はこれらの組み合わせである。
通信I/F304は、情報処理装置30を、ネットワークNを介して、サーバ装置を含む外部装置に接続し、通信を制御するためのインタフェースである。例えば、通信I/F304としては、Bluetooth(登録商標)、Wi-Fi(登録商標)、ZigBee(登録商標)、Ethernet(登録商標)、光通信(例えば、Fibre Channel)等に準拠したアダプタが挙げられる。
入出力I/F305は、情報処理装置30に入力装置307及び出力装置308を接続するためのインタフェースである。入力装置307は、例えば、マウス、キーボード、タッチパネル、マイク、スキャナ、カメラ、各種センサ、操作ボタン、又はこれらの組み合わせである。出力装置308は、例えば、ディスプレイ、プロジェクタ、プリンタ、スピーカ、バイブレータ、又はこれらの組み合わせである。
ドライブ装置306は、ディスクメディア309のデータを読み書きする。ドライブ装置306は、例えば、磁気ディスクドライブ、光学ディスクドライブ、光磁気ディスクドライブ、又はこれらの組み合わせである。ディスクメディア309は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、FD(Floppy Disk)、MO(Magneto-Optical disk)、BD(Blu-ray Disc)、又はこれらの組み合わせである。なお、Blu-rayは登録商標です。
なお、本実施形態において、生成プログラムは、情報処理装置30の製造段階でメモリ302又はストレージ303に書き込まれてもよいし、ネットワークNを介して情報処理装置30に提供されてもよいし、ディスクメディア309などの非一時的でコンピュータ読み取り可能な記録媒体を介して情報処理装置30に提供されてもよい。
<機能構成>
情報処理装置30の機能構成について図説明する。図3は、情報処理装置30の機能構成の一例を示す図である。図3に示すように、情報処理装置30は、通信部31と、記憶部32と、制御部33と、を備える。
通信部31は、通信I/F304により実現される。通信部31は、ネットワークNを介して、サーバ装置10やプロセスとの間で情報の送受信を行う。具体的に、通信部31は、プロセスに対して生成した合成データを送信する。なお、この通信部31は、例えば、プロセスからリクエストを受信したことをトリガーとして、当該リクエストに対する合成データを生成してもよい。
記憶部32は、メモリ302及びストレージ303により実現される。記憶部32は、評価データ322、レンダリングパラメータ323、設備機器記述データ324、及び学習モデル325を含む各種の情報を記憶する。ここで、評価データ322、レンダリングパラメータ323、及び設備機器記述データ324について説明する。
評価データ322は、制御部33の後述する評価部334によって評価に用いられる情報である。本実施形態において、評価データ322は、例えば、センサデータ、ノイズ特徴量データ、統計データ、及びセンサデータシート等を含む。センサデータとは、実画像データであり、例えば、ロボットがピックアンドプレースの操作を実行する場合に、この操作の対象となるオブジェクトが撮影された画像であり、例えば、イメージノイズ、フォーカス、露出、及び値域等を含む。なお、撮影装置については図示を省略する。また、撮影された画像が静止画像である場合、PNG(Portable Network Graphics)、GIF(Graphics Interchange Format)、BMP(Bitmap)、又はJPEG(Joint Photographic Experts Group)等のファイル形式が採用され得る。ノイズ特徴量データとは、例えば、RGB(Red Green Blue)カラーノイズ、深さノイズ、及び、深さ制限等を含む。統計データとは、例えば、ずれ量、鮮明度、影の柔らかさ、色分散、及び粗さ等を含む。センサデータシートは、物理的、又は電気的センサの特徴を含み、一例として、一般的なノイズ特徴量を含む。
また、後述するが、本システムは、記憶部32の評価データ322のセンサデータの格納領域に利用可能なセンサデータ(リファレンスセンサデータ)があるか否かを示す、“データ評価モード”というフラグを備える。この“データ評価モード”には、リファレンスセンサデータがある場合に、“リファレンスセンサデータあり”が設定される。一方、リファレンスセンサデータがない場合には、“データ評価モード”には“リファレンスセンサデータなし”が設定される。
また、後述するが、本システムは、記憶部32の評価データ322のノイズ特徴量データの格納領域に利用可能なノイズ特徴量データ(リファレンスノイズ特徴量データ)があるか否かを示す“ノイズ評価モード”というフラグを備える。この“ノイズ評価モード”には、リファレンスノイズ特徴量データがある場合に、“リファレンスノイズ特徴量データあり”が設定される。一方、リファレンスノイズ特徴量データがない場合には、“ノイズ評価モード”には“リファレンスノイズ特徴量データなし”が設定される。
レンダリングパラメータ323は、制御部33の後述するレンダリングエンジン336によってレンダリングに用いられるパラメータであり、これらのパラメータの値は、制御部33の後述するAIチューニングエージェント333によって出力(設定)される。本実施形態において、レンダリングパラメータ323は、センサノイズパラメータ、シーンパラメータ、及びターゲットオブジェクトパラメータ等を含む。センサノイズパラメータとは、例えば、イメージノイズ、フォーカス、露出、及び値域等を含む。シーンパラメータとは、例えば、ライトの配置、ライトの強度、解像度、レンダリングモード、ターゲットオブジェクトのサイズ、及び、ターゲットオブジェクトの位置等を含む。ターゲットオブジェクトパラメータとは、例えば、カラー、粗さ、清浄度、反射、及び分解能等を含む。
設備機器記述データ324は、プロセス、当該プロセスが実行される装置、及び当該プロセスによって必要とされ得る電子機器等に関する情報である。なお、このプロセスは、例えば、三次元モデルやワークスペースのレイアウト等を含む。
学習モデル325は、情報処理装置30の後述する評価部334によって出力されるリアリズムスコアと、情報処理装置30の後述するロボットシミュレーション部335によって用いられる、レンダリングパラメータ323(センサノイズパラメータ、シーンパラメータ、及びターゲットオブジェクトパラメータ)との関係を学習している。ここで、リアリズムスコアとは、生成データの実画像らしさを示すスコアであり、言い換えると、生成データが現実世界の実画像にどの程度近い(類似している)かを示すスコアである。本実施形態において、このリアリズムスコアは0から1の間の数値で表され、リアリズムスコアが1に近いほど実画像に近いと判断するものとしたが、これに限られず、例えば、数値をリスト化したものであってもよい。なお、このリアリズムスコアの算出手法については後述する。
また、学習モデル325は、このリアリズムスコアに対して、シミュレーション用パラメータ値、すなわち、レンダリングパラメータ323(センサノイズパラメータ、シーンパラメータ、及びターゲットオブジェクトパラメータ)を出力するように予め機械学習された学習済みの学習モデルである。この学習モデルを単にモデルともいう。モデルの学習処理及び再学習処理は、例えば、情報処理装置30の後述する学習部332により行われるが、これに限られない。モデルの学習処理及び再学習処理は、情報処理装置30以外の他の装置で行われ、情報処理装置30に提供されてもよい。なお、記憶部32の学習モデルには、学習済みモデルに付随する重み等の情報も併せて格納される。
また、このモデルは、例えば、DNN(Deep Neural Network)、RNN(Recurrent Neural Network)、CNN(Convolutional Neural Network)、LSTM(Long Short-Term Memory)等のニューラルネットワークであるが、これに限られない。モデルは、決定木、SVM(Support Vector Machine)等の学習モデルであってもよい。また、モデルの学習方法は、例えば、勾配降下法、確率的勾配降下法、又は誤差逆伝播法であるが、これに限られない。
次に、情報処理装置30の制御部33は、プロセッサ301がプログラムを実行し、他のハードウェア構成と協働することにより実現される。制御部33は、情報処理装置30の動作全体を制御する。制御部33は、情報送受信部331と、学習部332と、評価部334と、ロボットシミュレーション部と、を備える。
情報送受信部331は、サーバ装置10やプロセスとの間で情報を送受信する。具体的に、情報送受信部331は、プロセスから受信したクエリ等の情報を通信部31を介して受信し、サーバ装置10から処理に必要なデータを受信し、処理結果(例えば、生成した合成データ)をプロセスに送信する。情報送受信部331は、処理結果等の情報を記憶部32に保存してもよい。
学習部332は、記憶部32の学習モデル325に対して教師データ(リファレンスデータ)を入力することにより、当該学習モデルを学習させる(訓練する)。この学習部332は、AIチューニングエージェント333を含む。
AIチューニングエージェント333は、記憶部32の学習モデル325に対して、情報処理装置30の後述する評価部334によって出力されるリアリズムスコアを入力し、シミュレーション用パラメータ値を出力する。このシミュレーション用パラメータ値とは、情報処理装置30の後述するロボットシミュレーション部335によって用いられる、レンダリングパラメータ323であり、センサノイズパラメータ、シーンパラメータ、及びターゲットオブジェクトパラメータに設定されるデータである。AIチューニングエージェント333は、上述した学習済みの学習モデル325を用いることから、リアリズムスコアの高い(現実世界の実画像に近い)合成データを生成し得るレンダリングパラメータ323を求めることができる。
また、AIチューニングエージェント333は、生成したシミュレーション用パラメータ値を、記憶部32のレンダリングパラメータ323に格納してもよい。その際、リアリズムスコアがリアリズム閾値(後述)を超えた合成データを生成する際に用いた重みについては、最良の重みとして、記憶部32の学習モデル325の格納領域に保存してもよい。また、AIチューニングエージェント333は、リアリズムスコアがリアリズム閾値(後述)を超えた合成データを生成する際に用いたシミュレーション用パラメータ値については、最良のシミュレーション用パラメータ値として、記憶部32のレンダリングパラメータ323の格納領域に保存してもよい。
また、AIチューニングエージェント333は、学習済みの学習モデルを利用する際、記憶部32の学習モデル325の格納領域に当該学習モデル325について利用可能な重みがあるかどうかを判断する。利用可能な重みがある場合には、利用可能な重みを、例えばメモリ302にロードし、シミュレーション用パラメータ値の生成に用いる。一方、利用可能な重みがない場合には、ランダムな重みを生成する。
評価部334は、リアリズムスコアを算出する。本実施形態における、リアリズムスコアの算出手法について説明する。本実施形態に係るリアリズムスコアは、合成データの特徴(例えば、色、形、コヒーレンス、及び解像度等)がどれだけ実画像に近いかを示すスコアであるセンサデータスコアと、ノイズプロファイル(例えば、ノイズ分散、変形、及びデータクランピング等)がどれだけ類似しているかを示すノイズスコアと、を含む。
まず、センサデータスコアについて、リファレンスセンサデータありと、リファレンスセンサデータなしとの場合に分けて説明する。リファレンスセンサデータありの場合、このセンサデータスコアは、合成データ(の特徴)のリファレンスセンサデータに対する類似度を示す値(スコア)である。このようなリファレンスセンサデータを用いた(リファレンスセンサデータありの)画像の評価手法をFR(Full-Reference)型ともいう。本実施形態に係るセンサデータスコアは、例えば、配色、色忠実性、色分散、カラートーン、フォーカス、構図、良い構図の数、鮮明度、影の柔らかさ、色分散、及び粗さ等の指標に対するスコアを含む。配色とは、ピクセルの色の標準偏差を用いて計算される。色忠実性とは、LAB色モデルを用いて計算される。色分散とは、ユークリッド距離を用いて計算される。カラートーンとは、ヒストグラム交差法を用いて計算される。フォーカスとは、画像のラプラシアン(二次微分)の分散を用いて計算される。構図とは、構造類似性を用いて計算される。良い意構図の数とは、UVWカラーモデルを用いて計算される。鮮明度とは、フーリエ変換(Fourier transform;FT)のマグニチュードを用いて計算される。影の柔らかさとは、HSV色空間と、Otsu法による閾値と、を用いて計算される。色分散とは、独自性のある色の割合を用いて計算される。
一方、本実施形態に係るリファレンスセンサデータなしの場合のセンサデータスコアは、一般的なサンプル画像の特性(特性に関する既知の統計値)に対する合成データのスコアとして算出する。このようなリファレンスセンサデータを用いない(リファレンスセンサデータなしの)画像の評価手法をブラインド(Blind)型ともいう。本実施形態に係るリファレンスセンサデータなしの場合の実画像センサデータスコアは、上述したリファレンスセンサデータありの学習に用いる指標のサブセットを指標とした。例えば、このリファレンスセンサデータなしの場合のセンサデータスコアは、良い構図の数、鮮明度、影の柔らかさ、色分散、及び粗さ等の指標に対するスコアを含むものとしてもよい。また、リファレンスセンサデータなしの学習に用いる指標として、リファレンスセンサデータありの学習に用いる指標のサブセット用いる替わりに、種々の指標を組み合わせてもよい。
なお、このセンサデータスコアの計算手法は一例であり、センサデータスコアを求めるための指標は上記に限られない。
次に、ノイズスコアについて、リファレンスノイズ特徴量データありと、リファレンスノイズ特徴量データなしとの場合に分けて説明する。リファレンスノイズ特徴量データありの場合、このノイズスコアは、合成データのリファレンスノイズ特徴量データに関するスコア、すなわち、合成データのノイズプロファイルと、リファレンスノイズ特徴量データとの類似度を示す値(スコア)として求める。本実施形態に係るノイズスコアは、例えば、RGBカラーノイズ、深さノイズ、深さ制限、及びカメラの内部パラメータ等を含む。RGBカラーノイズとは、各カラーチャネルにおけるノイズの量である。深さノイズとは、深さを示すチャネルにおけるノイズの量である。深さ制限とは、実際のセンサの値域である。カメラの内部パラメータとは、オブジェクトの拡大縮小や画像の変形に係る量である。
一方、本実施形態に係るリファレンスノイズ特徴量データなしの場合のノイズスコアは、一般的なサンプル画像のノイズプロファイル(ノイズに関する既知の統計値)に対する合成データのスコアと、ターゲットとなるセンサの特徴量と、を考慮して算出するものとする。本実施形態に係るリファレンスノイズ特徴量データなしの場合のノイズスコアは、上述したリファレンスノイズ特徴量データありの学習に用いる指標のサブセットを指標とした。例えば、このリファレンスノイズ特徴量データなしの場合のノイズスコアは、RGBカラーノイズ、深さノイズ、及び深さ制限等を含むものとしてもよい。また、リファレンスノイズ特徴量データなしの学習に用いる指標として、リファレンスノイズ特徴量データありの学習に用いる指標のサブセット用いる替わりに、種々の指標を組み合わせてもよい。また、本実施形態において、ターゲットとなるセンサの特徴量は、記憶部32の評価データ322のセンサデータシートに記載されているものとし、当該センサデータシートを参照してターゲットとなるセンサの特徴量を算出するものとする。
なお、このノイズスコアの計算手法は一例であり、ノイズスコアを求めるための指標は上記に限られない。
このようにして、評価部334は、上述の指標を用い、センサデータスコアと、ノイズスコアと、を求め、これらのスコアを用いてリアリズムスコアを算出する。評価部334は、センサデータスコアとノイズスコアとの総和をリアリズムスコアとして算出してもよく、リアリズムスコアの算出手法はこれに限られない。
また、評価部334は、リアリズム閾値を設定する。なお、この設定は、例えば、本システムの管理者等によって指定された数値や、本システムが自動的に算出した数値に基づくものであってもよく、記憶部32の図示しない領域に格納されてもよい。このリアリズム閾値は、合成データが実画像に近いか否か(リアリスティックな画像であるか否か)を決定する指標となる基準値であり、プロセスに提供し得るか否かの判断基準となる。本システムでは、合成データのリアリズムスコアがリアリズム閾値よりも大きい場合には、プロセスに提供し得るものであると判断する。一方、リアリズムスコアがリアリズム閾値以下である場合には、プロセスに提供し得るものではないと判断する。
次に、ロボットシミュレーション部335は、レンダリングエンジン336を備え、レンダリングエンジン336を用いて合成データを生成し、生成した合成データをAIチューニングエージェント333と、評価部334と、に渡す。レンダリングエンジン336は、AIチューニングエージェント333が出力したシミュレーション用パラメータ値、すなわち、センサノイズパラメータ、シーンパラメータ、及びターゲットオブジェクトパラメータに設定されたデータを用いて、合成データを生成する。また、レンダリングエンジン336は、記憶部32のレンダリングパラメータ323に格納される、センサノイズパラメータ、シーンパラメータ、及びターゲットオブジェクトパラメータを用いて、合成データを生成してもよい。
また、後述するが、レンダリングエンジン336が、その生成した合成データであって、続く処理においてリアリズムスコア算出の対象となる合成データを、サンプル合成データともいう。
また、レンダリングエンジン336は、記憶部32の評価データ322の設備機器記述データを、例えばメモリ302にロードし、合成データの生成に用いる。
<情報処理装置30が実行する制御処理>
図4は、情報処理装置30が実行する制御処理の概要を示す図である。具体的に、図4は、図3に例示した機能構成のうち、制御部33の学習部332(AIチューニングエージェント333)、制御部33の評価部334、制御部33のロボットシミュレーション部335(レンダリングエンジン336)と、記憶部32と、を取り上げて、これらの機能間での情報の授受を具体的に説明する。なお、この図4では、通信部31、及び、制御部33の情報送受信部331の処理については説明を省略する。
図5~図7は、情報処理装置30の制御部33による制御処理の一例を示すフローチャートである。図5に例示するステップS114の処理の後、連結子Aを介して、図6に例示するステップS115に進む。また、図6に例示するステップS125の処理の後、連結子Bを介して、図7に例示するステップS126に進む。
まずは、図4を参照しながら、図5~図7にしたがって本システムにおける制御処理の一例について説明する。
(ステップS101)
本システムの例えばデーモンは、記憶部32の評価データ322のセンサデータの格納領域に利用可能なセンサデータがあるかどうか、すなわち、リファレンスセンサデータがあるかどうかを判断する。リファレンスセンサデータがある場合(ステップS101:YES)、処理はステップS102に進む。一方、リファレンスセンサデータがない場合(ステップS101:NO)、処理はステップS102に進む。
(ステップS102)
本システムの例えばデーモンは、記憶部32のセンサデータを例えばメモリ302にロードする。そして、処理はステップS104に進む。
(ステップS103)
一方(ステップS101においてリファレンスセンサデータがないと判断した場合)、本システムの例えばデーモンは、例えばメモリ302に統計データをロードする。そして、処理はステップS104に進む。
(ステップS104)
本システムの例えばデーモンは、記憶部32の評価データ322のノイズ特徴量データの格納領域に利用可能なノイズ特徴量データがあるかどうか、すなわち、リファレンスノイズ特徴量データがあるかどうかを判断する。リファレンスノイズ特徴量データがある場合(ステップS104:YES)、処理はステップS105に進む。一方、リファレンスノイズ特徴量データがない場合(ステップS104:NO)、処理はステップS106に進む。
(ステップS105)
本システムの例えばデーモンは、記憶部32のノイズ特徴量データを例えばメモリ302にロードする。そして、処理はステップS107に進む。
(ステップS106)
一方(ステップS104においてリファレンスノイズ特徴量データがないと判断した場合)、記憶部32の評価データ322のセンサデータシートに含まれるノイズ特徴量データを、例えばメモリ302にロードする。そして、処理はステップS107に進む。
(ステップS107)
本システムの例えばデーモンは、評価部334を起動し、処理はステップS108に進む。
(ステップS108)
本システムの例えばデーモンは、リファレンスセンサデータがあるか否かを判断する。リファレンスセンサデータがある場合(ステップS108:YES)、処理はステップS109に進む。一方、リファレンスセンサデータがない場合(ステップS108:NO)、処理はステップS110に進む。
(ステップS109)
評価部334は、データ評価モードを“リファレンスセンサデータあり”に設定する。そして、処理はステップS111に進む。
(ステップS110)
一方(ステップS109においてリファレンスセンサデータがないと判断した場合)、評価部334は、データ評価モードを“リファレンスセンサデータなし”に設定する。そして、処理はステップS111に進む。
(ステップS111)
評価部334は、リファレンスノイズ特徴量データがある場合(ステップS111:YES)、処理はステップS112に進む。一方、リファレンスノイズ特徴量データがない場合(ステップS111:NO)、処理はステップS113に進む。
(ステップS112)
評価部334は、ノイズ評価モードを“リファレンスノイズ特徴量データあり”に設定する。そして、処理はステップS114に進む。
(ステップS113)
一方(ステップS111においてリファレンスノイズ特徴量データがないと判断した場合)、評価部334は、ノイズ評価モードを“リファレンスノイズ特徴量データなし”に設定する。そして、処理はステップS114に進む。
(ステップS114)
評価部334は、リアリズム閾値を設定する。そして、連結子Aを介して、図6に例示したステップS115の処理に進む。
(ステップS115)
本システムの例えばデーモンは、ロボットシミュレーション部335を起動する。そして、処理はステップS116に進む。
(ステップS116)
ロボットシミュレーション部335(レンダリングエンジン336)は、記憶部32の評価データ322の設備機器記述データを、例えばメモリ302にロードする。そして、処理はステップS117に進む。
(ステップS117)
本システムの例えばデーモンは、AIチューニングエージェント333を起動する。そして、処理はステップS118に進む。
(ステップS118)
AIチューニングエージェント333は、記憶部32の学習モデル325の格納領域に当該学習モデル325について利用可能な重みがあるかどうかを判断する。利用可能な重みがある場合(ステップS118:YES)、処理はステップS119に進む。一方、利用可能な重みがない場合(ステップS118:NO)、処理はステップS120に進む。
(ステップS119)
AIチューニングエージェント333は、利用可能な重みを、例えばメモリ302にロードする。そして、処理はステップS121に進む。
(ステップS120)
一方(ステップS118において利用可能な重みがないと判断した場合)、ランダムな重みを生成する。そして、処理はステップS121に進む。
(ステップS121)
AIチューニングエージェント333は、記憶部32のレンダリングパラメータ323の格納領域にある、センサノイズパラメータ、シーンパラメータ、及びターゲットオブジェクトパラメータを、例えばメモリ302にロードする。なお、初回起動時には、これらのパラメータの値をランダムに設定してもよい、ディスクメディア309等からロードされてもよい。また、それ以降は、上記パラメータの値を、例えば、後述するステップS132にて設定されるシミュレーション用パラメータ値に基づき設定してもよい。そして、処理はステップS122に進む。
(ステップS122)
レンダリングエンジン336が、合成データを生成する。レンダリングエンジン336が、その都度生成する合成データであって、続く処理においてリアリズムスコア算出の対象となる合成データを、サンプル合成データという。すなわち、このステップS121において生成された合成データは、サンプル合成データに相当する。そして、処理はステップS123に進む。
(ステップS123)
レンダリングエンジン336は、サンプル合成データをAIチューニングエージェント333に入力する。そして、処理はステップS124に進む。
(ステップS124)
レンダリングエンジン336は、サンプル合成データを評価部334に入力する。そして、処理はステップS125に進む。
(ステップS125)
評価部334は、サンプル合成データのリアリズムスコアを算出する。そして、処理は連結子Bを介して、図7に例示するステップS126に進む。
(ステップS126)
評価部334は、ステップS124にて算出したリアリズムスコアがリアリズム閾値よりも大きいか否かを判断する。リアリズムスコアがリアリズム閾値よりも大きいと判断した場合(ステップS126:YES)、処理はステップS127に進む。一方、リアリズムスコアがリアリズム閾値以下であると判断した場合(ステップS126:NO)、処理はステップS130に進む。
(ステップS127)
AIチューニングエージェント333は、ステップS119にてロードした重みを最良の重みとして、記憶部32の学習モデル325の格納領域に保存する。そして、処理はステップS128に進む。
(ステップS128)
評価部334は、ステップS121にてロードしたレンダリングパラメータ323(センサノイズパラメータ、シーンパラメータ、及びターゲットオブジェクトパラメータ)を、最良のシミュレーション用パラメータ値として、記憶部32のレンダリングパラメータ323の格納領域に保存する。そして、処理はステップS129に進む。
(ステップS129)
レンダリングエンジン336は、ステップS127にて保存した最良の重みと、ステップS128にて保存した最良のシミュレーション用パラメータ値を用いて、合成データを生成する。そして、この生成した合成データをプロセスに提供する(図1参照)。そして、処理が終了する。
(ステップS130)
一方(ステップS126においてリアリズムスコアがリアリズム閾値以下であると判断した場合)、レンダリングエンジン336は、ステップS125にて算出したリアリズムスコアをAIチューニングエージェント333に渡す。AIチューニングエージェント333は、ステップS125にて算出したリアリズムスコアを受け取り、自身が備える学習済みモデルの入力とする。そして、処理はステップS131に進む。
(ステップS131)
AIチューニングエージェント333は、ステップS130にて学習済みモデルにリアリズムスコアを入力した結果(出力)である、シミュレーション用パラメータ値を生成(出力)する。この学習済みモデルは、リアリズムスコアの値が最適になるような学習を行うよう訓練されているから、レンダリングエンジン336において合成データを生成する際のシミュレーション用パラメータ値をチューニングし、より最適化された合成データを生成し得るシミュレーション用パラメータ値を生成する。このステップS131にて生成されたシミュレーション用パラメータ値を新規のシミュレーション用パラメータ値をともいう。そして、処理はステップS132に進む。
(ステップS132)
AIチューニングエージェント333は、ステップS131にて生成した新規のシミュレーション用パラメータ値を、レンダリングエンジン336へ入力する。そして、処理はステップS133に進む。
(ステップS133)
レンダリングエンジン336は、ステップS132にて受け取った新規のシミュレーション用パラメータ値をパース、又はマップする。そして、処理はステップS134に進む。
(ステップS134)
レンダリングエンジン336は、ステップS133にてパースした新規のシミュレーション用パラメータ値を用いて、サンプル合成データを生成する。そして、処理はステップS123(図6参照)に戻る。
このようにして、本システムでは、上述のステップS101~S134の処理を経て、より最適化された合成データを生成する。上述したように、リアリズムスコアに基づきシミュレーション用パラメータ値をチューニングすることにより、レンダリングエンジン336においてより最適化された合成データを生成し得る。これにより、本システムにおいて生成した最適化された合成データをプロセスに提供し得る。
AIチューニングエージェント333における学習には、DNN、DDPG(Deep Deterministic Policy Gradient)、TRPO(Trust Region Policy Optimization)等の強化学習が用いられ得る。次に、AIチューニングエージェント333における学習に、DNNを用いた場合を例にとり説明する。
図8は、DNNを用いた場合に、情報処理装置30が実行する制御処理の概要を示す図である。この図8を用いて、DNNを用いた制御処理の一例について説明する。
この図8に例示するように、図4に例示した概要との違いは、AIチューニングエージェント333が、ターゲットポリシーと、トレーニングポリシーと、リプレイバッファと、を備えた点である。このターゲットポリシーは、AIチューニングエージェント333の出力となるシミュレーション用パラメータ値(ここでは、アクションともいう)を決定するための重みの決定に関わるポリシーを記述したものである。リプレイバッファは、今回の出力とレンダリングエンジン336が生成した合成データ(ここでは、状態ともいう)との双方を格納するものである。なお、トレーニングポリシーは、特に強化学習アルゴリズムにおいて公知のため、説明を省略する。
上記店以外では図4に例示した概要とは相違はなく、図5~図7に例示した制御処理についても同様であるため、説明を省略する。
<まとめ>
以上説明した通り、本実施形態に係る情報処理システム1は、レンダリングパラメータを調整して、調整したレンダリングパラメータに基づき合成データを生成する。これにより、最適化されたレンダリング合成データの生成を支援することができる。
また、本システムにおいて、AIチューニングエージェント333は、リアリズムスコアを入力とし、シミュレーション用パラメータ値、すなわち、レンダリングパラメータ323(センサノイズパラメータ、シーンパラメータ、及びターゲットオブジェクトパラメータ)を出力するように予め機械学習された学習済みの学習モデルを用いる。これにより、リアリズムスコアの高い(現実世界の実画像に近い)合成データを生成し得るレンダリングパラメータ323を求めることができる。このようにして求めたレンダリングパラメータ323を用いることにより、より最適な合成データを生成し得る。
また、本実施形態では、図5に例示する制御処理において、リファレンスセンサデータ、及びリファレンスノイズ特徴量データをロードした後に、データ評価モード、及びノイズ評価モードを設定するものとしたが、これに替えて、リファレンスセンサデータのロードと、データ評価モードとの設定を同時に行ってもよい。この場合、ステップS108の処理は省略してもよい。また、リファレンスノイズ特徴量データのロードと、ノイズ評価モードの設定とを同時に行ってもよい。この場合、ステップS111の処理は省略してもよい。
また、本実施形態の情報処理システムは、サーバ装置10と、情報処理装置30と、プロセスを備えるものとしたが、これに加えて、開発者端末を備えるものとしてもよい。
また、本実施形態の情報処理システムは、ロボットのシミュレーションを実施するプロセスを一例として説明したが、プロセスはロボット用のものに限られない。
<付記>
本実施形態は、以下の開示を含む。
(付記1)
情報処理装置が実行する生成方法であって、
レンダリングパラメータを調整する処理と、
調整した前記レンダリングパラメータに基づき合成データを生成する処理と、
を含む生成方法。
(付記2)
前記情報処理装置は、リアリズムスコアの値が最適になるようにレンダリングパラメータを調整する、
付記1に記載の生成方法。
(付記3)
前記リアリズムスコアは、センサデータスコア、及びノイズスコアに基づき算出される、
付記1又は付記2に記載の生成方法。
(付記4)
前記センサデータスコアは、リファレンスセンサデータが利用可能な場合、前記合成データの前記リファレンスセンサデータに対する類似度を示す値である、
付記1から付記3までのいずれか1項に記載の生成方法。
(付記5)
前記ノイズスコアは、リファレンスノイズ特徴量データが利用可能な場合、前記合成データのノイズプロファイルと、前記リファレンスノイズ特徴量データとの類似度を示す値である、
付記1から付記4までのいずれか1項に記載の生成方法。
(付記6)
前記レンダリングパラメータは、センサノイズパラメータ、シーンパラメータ、及びターゲットオブジェクトパラメータ等を含む、
付記1から付記5までのいずれか1項に記載の生成方法。
(付記7)
前記情報処理装置は、前記リアリズムスコアの値が最適になるような学習を行うよう訓練された学習済みモデルを用いて、前記レンダリングパラメータを調整する、
付記2に記載の生成方法。
(付記8)
レンダリングパラメータを調整し、調整した前記レンダリングパラメータに基づき合成データを生成する制御部、
を備える情報処理装置。
(付記9)
レンダリングパラメータを調整する処理と、
調整した前記レンダリングパラメータに基づき合成データを生成する処理と、
をコンピュータに実行させるためのプログラム。
(付記10)
合成データを用いて、ロボットのシミュレーションを実施するためのプロセスと、
評価データを管理するサーバ装置と、
前記評価データを参照して前記合成データを生成する情報処理装置と、
を備えた情報処理システムであって、
前記情報処理装置により、レンダリングパラメータを調整する処理と、 調整した前記レンダリングパラメータに基づき合成データを生成する処理と、
を実行する情報処理システム。
今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。また、本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
1 情報処理システム
10 サーバ装置
30 情報処理装置
31 通信部
32 記憶部
33 制御部
301 プロセッサ
302 メモリ
303 ストレージ
304 通信I/F
305 入出力I/F
306 ドライブ装置
307 入力装置
308 出力装置
309 ディスクメディア
322 評価データ
323 レンダリングパラメータ
324 設備機器記述データ
325 学習モデル
331 情報送受信部
332 学習部
333 AIチューニングエージェント
334 評価部
335 ロボットシミュレーション部
336 レンダリングエンジン

Claims (6)

  1. 情報処理装置が実行する生成方法であって、
    レンダリングパラメータを調整する処理と、
    調整した前記レンダリングパラメータに基づき合成データを生成する処理と、
    リアリズムスコアの値が最適になるように前記レンダリングパラメータを調整する処理と、
    を含み、
    前記リアリズムスコアは、センサデータスコア、及びノイズスコアに基づき算出され、
    前記センサデータスコアは、リファレンスセンサデータが利用可能な場合、前記合成データの前記リファレンスセンサデータに対する類似度を示す値であり、前記リファレンスセンサデータが利用可能ではない場合、統計値を用いて算出され、
    前記ノイズスコアは、リファレンスノイズ特徴量データが利用可能な場合、前記合成データのノイズプロファイルと、前記リファレンスノイズ特徴量データとの類似度を示す値であり、前記リファレンスノイズ特徴量データが利用可能ではない場合、ノイズに関する統計値を用いて算出される、
    生成方法。
  2. 前記レンダリングパラメータは、センサノイズパラメータ、シーンパラメータ、及びターゲットオブジェクトパラメータを含む、
    請求項1に記載の生成方法。
  3. 前記情報処理装置は、前記リアリズムスコアの値が最適になるような学習を行うよう訓練された学習済みモデルを用いて、前記レンダリングパラメータを調整する、
    請求項1に記載の生成方法。
  4. レンダリングパラメータを調整し、調整した前記レンダリングパラメータに基づき合成データを生成し、リアリズムスコアの値が最適になるように前記レンダリングパラメータを調整する制御部、
    を備え、
    前記制御部は、リファレンスセンサデータが利用可能な場合、センサデータスコアを、前記合成データの前記リファレンスセンサデータに対する類似度を示す値として算出し、前記リファレンスセンサデータが利用可能ではない場合、統計値を用いて算出し、
    前記制御部は、リファレンスノイズ特徴量データが利用可能な場合、ノイズスコアを、前記合成データのノイズプロファイルと、前記リファレンスノイズ特徴量データとの類似度を示す値として算出し、前記リファレンスノイズ特徴量データが利用可能ではない場合、ノイズに関する統計値を用いて算出する、
    情報処理装置。
  5. レンダリングパラメータを調整する処理と、
    調整した前記レンダリングパラメータに基づき合成データを生成する処理と、
    リアリズムスコアの値が最適になるように前記レンダリングパラメータを調整する処理と、
    をコンピュータに実行させるためのプログラムであって、
    前記リアリズムスコアは、センサデータスコア、及びノイズスコアに基づき算出され、
    前記センサデータスコアは、リファレンスセンサデータが利用可能な場合、前記合成データの前記リファレンスセンサデータに対する類似度を示す値であり、前記リファレンスセンサデータが利用可能ではない場合、統計値を用いて算出され、
    前記ノイズスコアは、リファレンスノイズ特徴量データが利用可能な場合、前記合成データのノイズプロファイルと、前記リファレンスノイズ特徴量データとの類似度を示す値であり、前記リファレンスノイズ特徴量データが利用可能ではない場合、ノイズに関する統計値を用いて算出される、
    プログラム。
  6. 合成データを用いて、ロボットのシミュレーションを実施するためのプロセスと、
    評価データを管理するサーバ装置と、
    前記評価データを参照して前記合成データを生成する情報処理装置と、
    を備えた情報処理システムであって、
    前記情報処理装置により、レンダリングパラメータを調整する処理と、調整した前記レンダリングパラメータに基づき合成データを生成する処理と、リアリズムスコアの値が最適になるように前記レンダリングパラメータを調整する処理と、
    を実行する情報処理システムであって、
    前記リアリズムスコアは、センサデータスコア、及びノイズスコアに基づき算出され、
    前記センサデータスコアは、リファレンスセンサデータが利用可能な場合、前記合成データの前記リファレンスセンサデータに対する類似度を示す値であり、前記リファレンスセンサデータが利用可能ではない場合、統計値を用いて算出され、
    前記ノイズスコアは、リファレンスノイズ特徴量データが利用可能な場合、前記合成データのノイズプロファイルと、前記リファレンスノイズ特徴量データとの類似度を示す値であり、前記リファレンスノイズ特徴量データが利用可能ではない場合、ノイズに関する統計値を用いて算出される、
    情報処理システム。
JP2021112509A 2021-07-07 2021-07-07 生成方法、情報処理装置、プログラム、及び情報処理システム Active JP7058434B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021112509A JP7058434B1 (ja) 2021-07-07 2021-07-07 生成方法、情報処理装置、プログラム、及び情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021112509A JP7058434B1 (ja) 2021-07-07 2021-07-07 生成方法、情報処理装置、プログラム、及び情報処理システム

Publications (2)

Publication Number Publication Date
JP7058434B1 true JP7058434B1 (ja) 2022-04-22
JP2023009344A JP2023009344A (ja) 2023-01-20

Family

ID=81291864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021112509A Active JP7058434B1 (ja) 2021-07-07 2021-07-07 生成方法、情報処理装置、プログラム、及び情報処理システム

Country Status (1)

Country Link
JP (1) JP7058434B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024079792A1 (ja) * 2022-10-11 2024-04-18 株式会社エクサウィザーズ 情報処理装置、方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200050716A1 (en) * 2018-08-09 2020-02-13 Zoox, Inc. Procedural world generation using tertiary data
WO2021006189A1 (ja) * 2019-07-08 2021-01-14 国立大学法人東京大学 画像生成装置、画像生成方法及び画像生成プログラム
US20210027044A1 (en) * 2018-03-30 2021-01-28 Movidius Ltd. Methods, systems, articles of manufacture and apparatus to generate digital scenes

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210027044A1 (en) * 2018-03-30 2021-01-28 Movidius Ltd. Methods, systems, articles of manufacture and apparatus to generate digital scenes
US20200050716A1 (en) * 2018-08-09 2020-02-13 Zoox, Inc. Procedural world generation using tertiary data
WO2021006189A1 (ja) * 2019-07-08 2021-01-14 国立大学法人東京大学 画像生成装置、画像生成方法及び画像生成プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024079792A1 (ja) * 2022-10-11 2024-04-18 株式会社エクサウィザーズ 情報処理装置、方法、及びプログラム

Also Published As

Publication number Publication date
JP2023009344A (ja) 2023-01-20

Similar Documents

Publication Publication Date Title
US20210012558A1 (en) Method and apparatus for reconstructing three-dimensional model of human body, and storage medium
JP6441980B2 (ja) 教師画像を生成する方法、コンピュータおよびプログラム
WO2017154284A1 (ja) 情報処理方法および情報処理装置
JP2022503647A (ja) クロスドメイン画像変換
JP2018532216A (ja) 画像正則化及びリターゲティングシステム
WO2020216033A1 (zh) 用于面部图像生成的数据处理方法、设备和介质
US11941737B2 (en) Artificial intelligence-based animation character control and drive method and apparatus
JP7055769B2 (ja) データ生成装置、データ生成方法およびプログラム
JP6863596B6 (ja) データ処理装置及びデータ処理方法
JP7310252B2 (ja) 動画生成装置、動画生成方法、プログラム、記憶媒体
CN114925748B (zh) 模型训练及模态信息的预测方法、相关装置、设备、介质
JP7058434B1 (ja) 生成方法、情報処理装置、プログラム、及び情報処理システム
US20230267686A1 (en) Subdividing a three-dimensional mesh utilizing a neural network
JP2021103344A (ja) 学習支援装置、学習装置、学習支援方法及び学習支援プログラム
US10282883B2 (en) Hierarchy-based character rigging
CN112766348A (zh) 一种基于对抗神经网络生成样本数据的方法以及装置
US20140192045A1 (en) Method and apparatus for generating three-dimensional caricature using shape and texture of face
CN114762004A (zh) 数据生成方法、数据生成装置、模型生成方法、模型生成装置及程序
JP2010250634A (ja) 画像サーバー、画像検索システム、画像検索方法およびインデックス作成方法
CN114373033A (zh) 图像处理方法、装置、设备、存储介质及计算机程序
KR20180082171A (ko) 3차원 캐릭터 생성 방법 및 시스템
KR20210063171A (ko) 이미지 변환 장치 및 이미지 변환 방법
JP6918382B1 (ja) 情報処理装置及び情報処理方法
WO2021200143A1 (ja) 画像処理装置、画像処理方法、および、3dモデルデータ生成方法
CN111581411B (zh) 高精度人脸形状库的构建方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210707

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220404

R150 Certificate of patent or registration of utility model

Ref document number: 7058434

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150