JP2020091702A - 撮像装置および撮像方法 - Google Patents
撮像装置および撮像方法 Download PDFInfo
- Publication number
- JP2020091702A JP2020091702A JP2018228969A JP2018228969A JP2020091702A JP 2020091702 A JP2020091702 A JP 2020091702A JP 2018228969 A JP2018228969 A JP 2018228969A JP 2018228969 A JP2018228969 A JP 2018228969A JP 2020091702 A JP2020091702 A JP 2020091702A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- image data
- inference
- change
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】予測画像を生成した場合において予測する際に使用した画像や、過去の画像の変化を検出した際に使用した画像を、後日、簡単に検索することができる撮像装置および撮像方法を提供する。【解決手段】対象物を撮像部によって撮像して、画像データを出力し(S3)、画像データを記録部に記録し(S27)、画像データの内、経時変化情報を有する類似の対象物の画像を用いて学習することによって、将来画像を予測画像として出力可能な推論モデルを用いて推論し(S5)、推論された予測画像データを記録部に記録するにあたって、元画像データであるか、推論後の画像データであるかを、画像データに関連付けて記録する(S23)。また、画像データを記録する際に、対象物の経過進行型の変化であるか、または特定物移動型の変化であるかを分類して記録する。【選択図】 図8
Description
本発明は、画像に基づいて将来の画像を予測し、また過去の画像との比較を行うことができる撮像装置および撮像方法に関する。
顔の撮像画像と健康病気情報に基づき、予測画像を生成することが提案されている(特許文献1)。表示装置に表示された予測画像を見ることにより、自然に健康病気情報を知ることができる。また、過去の画像を比較することにより、物品等の変化を検出することも知られている。
特許文献1に開示の技術によれば、予測画像を見ることができるが、後日、予測のもとになった画像が何であったかを調べることが容易でない。また、過去の画像から物品等の変化を検出する場合であっても、後日、変化を検出した根拠となった画像を調べることが容易ではない。
本発明は、このような事情を鑑みてなされたものであり、予測画像を生成した場合において予測する際に使用した画像や、過去の画像の変化を検出した際に使用した画像を、後日、簡単に検索することができる撮像装置および撮像方法を提供することを目的とする。
上記目的を達成するため第1の発明に係る撮像装置は、対象物を撮像し、画像データを出力する撮像部と、上記画像データを記録する記録部と、上記撮像部によって取得された画像データの内、経時変化情報を有する類似の対象物の画像を用いて学習することによって、将来画像を予測画像として出力可能な推論モデルを用いて推論する推論部と、上記推論部によって推論された予測画像データを上記記録部に記録するにあたって、元画像データであるか、推論後の画像データであるかを、上記画像データに関連付けて記録する記録制御部と、を有する。
第2の発明に係る撮像装置は、上記第1の発明において、上記推論部は、上記撮像部によって取得された画像データが、経過進行型の変化を示す画像であるか、または特定物移動型の変化を示す画像であるかを推論する。
第3の発明に係る撮像装置は、上記第1の発明において、上記記録制御部は、上記画像データを記録する際に、上記対象物の経過進行型の変化であるか、または特定物移動型の変化であるかを分類して記録する。
第3の発明に係る撮像装置は、上記第1の発明において、上記記録制御部は、上記画像データを記録する際に、上記対象物の経過進行型の変化であるか、または特定物移動型の変化であるかを分類して記録する。
第4の発明に係る撮像装置は、上記第1の発明において、上記推論部は、上記撮像部によって取得した画像データに基づいて、所定時間経過後の予測画像を推論し、上記記録制御部は、上記予測画像と、上記推論に用いた上記画像データを関連付けて、上記記録部に記録する。
第5の発明に係る撮像装置は、上記第1の発明において、上記推論部は、上記撮像部によって取得した過去の画像データと、現在の画像データを比較し、比較結果に基づいて特定物の移動を推測し、上記記録制御部は、上記過去の画像データと上記現在の画像データを関連付けて、上記記録部に記録する。
第6の発明に係る撮像装置は、上記第1の発明において、上記推論部による推論結果を表示する表示部と、上記表示部に表示に対して、変更指示を行うための操作部材と、を有し、上記記録制御部は、上記操作部材によって変更操作の内容を記録する。
第5の発明に係る撮像装置は、上記第1の発明において、上記推論部は、上記撮像部によって取得した過去の画像データと、現在の画像データを比較し、比較結果に基づいて特定物の移動を推測し、上記記録制御部は、上記過去の画像データと上記現在の画像データを関連付けて、上記記録部に記録する。
第6の発明に係る撮像装置は、上記第1の発明において、上記推論部による推論結果を表示する表示部と、上記表示部に表示に対して、変更指示を行うための操作部材と、を有し、上記記録制御部は、上記操作部材によって変更操作の内容を記録する。
第7の発明に係る撮像装置は、上記第1の発明において、さらに、推論部で使用する推論モデルを生成するための学習部を有し、上記学習部は、ジェネレータタイプのネットワークデザインと、ディスクリミネータタイプのネットワークデザインを有し、上記ジェネレータタイプのネットワークデザインの入力部に教師用の画像データを入力し、ジェネレータタイプのネットワークデザインの出力を、上記ディスクリミネータタイプのネットワークデザインの入力部に入力し、さらに、ディスクリミネータタイプのネットワークデザインの教師用の前後情報を教師用データとして入力する。
第8の発明に係る撮像方法は、対象物を撮像部によって撮像して、画像データを出力し、上記画像データを記録部に記録し、上記画像データの内、経時変化情報を有する類似の対象物の画像を用いて学習することによって、将来画像を予測画像として出力可能な推論モデルを用いて推論し、上記推論された予測画像データを上記記録部に記録するにあたって、元画像データであるか、推論後の画像データであるかを、上記画像データに関連付けて記録する。
第9の発明に係る撮像方法は、上記第8の発明において、上記推論は、上記撮像部によって取得された画像データは、経過進行型の変化を示す画像であるか、または特定物移動型の変化を示す画像であるかを推論する。
第10の発明に係る撮像方法は、上記第8の発明において、上記画像データを記録する際に、上記対象物の経過進行型の変化であるか、または特定物移動型の変化であるかを分類して記録する。
第10の発明に係る撮像方法は、上記第8の発明において、上記画像データを記録する際に、上記対象物の経過進行型の変化であるか、または特定物移動型の変化であるかを分類して記録する。
第11の発明に係る撮像方法は、上記第8の発明において、上記撮像部によって取得した画像データに基づいて、所定時間経過後の予測画像を推論し、上記予測画像と、上記推論に用いた上記画像データを関連付けて、上記記録部に記録する。
第12の発明に係る撮像方法は、上記第8の発明において、上記撮像部によって取得した過去の画像データと、現在の画像データを比較し、比較結果に基づいて特定物の移動を推測し、上記過去の画像データと上記現在の画像データを関連付けて、上記記録部に記録する。
第13の発明に係る撮像方法は、上記第8の発明において、上記推論の結果を表示部に表示し、上記表示部の表示に対して、操作部材によって行われた変更指示を検出し、上記操作部材によって変更操作の内容を記録する。
第12の発明に係る撮像方法は、上記第8の発明において、上記撮像部によって取得した過去の画像データと、現在の画像データを比較し、比較結果に基づいて特定物の移動を推測し、上記過去の画像データと上記現在の画像データを関連付けて、上記記録部に記録する。
第13の発明に係る撮像方法は、上記第8の発明において、上記推論の結果を表示部に表示し、上記表示部の表示に対して、操作部材によって行われた変更指示を検出し、上記操作部材によって変更操作の内容を記録する。
本発明によれば、予測画像を生成した場合において予測する際に使用した画像や、過去の画像の変化を検出した際に使用した画像を、後日、簡単に検索することができる撮像装置および撮像方法を提供することができる。
以下、本発明の一実施形態に係る画像取得装置としてデジタルカメラに適用した例について説明する。
従来の撮像装置によって取得された撮影画像は、撮影対象物をそのまま画像に変換したものであり、その時点で撮影画像を記録するのが一般的である。すなわち、撮影タイミングにおける画像しか記録できない。しかし、現在時点における画像から得られる情報を有効利用することによって、過去の画像や将来の画像を推測(予測)することが可能になる。この対象物の時間変化は、老化や成長のように対象物そのものの経時変化がある。また、商品の在庫管理や人の出入りのように画像に含まれる物の位置変化もある。取得された画像中における対象物がどのような状態であったかや、今後、どうなるかを示す画像を画像処理によって得る場合には、実際に撮影された画像と、この画像から推測された画像を分離して管理しておくことが望まれる。
本実施形態に係る撮像装置では、過去の画像、現在の画像から将来予測によって予測画像を生成する。生成した際に、この予測画像を生成するにあたって使用した元画像に関する情報をタグ情報等として予測画像に関連付けて記憶する。また、元画像にも予測画像に関する情報をタグ情報として、関連付けて記憶する。元画像にタグ情報が付与されていることから、元画像を簡単に検索することができる。さらに、過去画像と現在画像を比較する際にも、両画像にそれぞれ関連付けるためのタグ情報等を記憶する。すなわち、将来予測に限らず、過去と現在等、時間軸変化を関連付けて記録する。例えば、老化や病状変化等、経過進行型の対象物は、対象物経時変化として捉える。また、画像内の変化部位を観察することによって可能な在庫管理は、画像内特定物位置変化として捉える。
図1を用いて、将来を予測する撮像装置の例を説明する。撮像装置100は、後述する図2に示すように撮像部103、表示部106等を有し、被写体を撮影し、表示部106に撮影画像を表示することができる。また、この撮像装置100は、推論エンジン110を有し、撮影画像に映っている人物の将来の画像を予測することができる。
推論エンジン110は、ハードウエア回路またはソフトウエアによって実現され、推論モデルを用いて、撮影画像の将来の予測画像100aを予測する。この推論モデルは、教師画像112eを用いて、深層学習等の学習によって、生成される。教師画像112eとしては、例えば、複数の顔1、顔2等を有し、顔1を現在の画像とすると、顔2は所定年数後の顔である。また、教師画像112eとしては、顔画像に限らず、病状の画像や、商品の画像を用いてもよい。病状画像を教師画像とすることにより、現在の病状画像に対する将来の病状画像を予測する推論モデルを作成することができる。また、商品画像を教師画像とすることにより、商品名等を推論する推論モデルや、商品の在庫管理を推論する推論モデル等を作成することができる。
図1では、人物の顔写真を撮影することにより、その人物の将来の予測画像100aを表示部106に表示する例を示す。しかし、これに限らず、褥瘡(所謂、床ずれ)や傷等を現在画像とし、将来の褥瘡や傷等を予測してもよく、また一般のカメラ以外の医療機器等で撮影した体内の患部の将来画像等を予測してもよい。また、将来の予測画像に限らず、商品や荷物の出し入れなど繰り返し起こる事象を撮影した場合には、過去の画像と現在の撮影画像を比較することにより、その時間変化を検出するようにしてもよい。この場合、過去の画像と現在を比較することにより、過去に起こった事は将来も起こり得るとか、過去の変化の激しさから将来の変化も激しいであろうと、推測、予測するようにしてもよい。このような時間によって変化する画像の情報は有効活用が可能であり、例えば、棚に陳列された商品の変化等を検知することにより商品の在庫を管理する用途等に有効活用してもよい(後述する図7参照)。
次に、図2Aおよび図2Bを用いて、撮像装置100の電気的構成について説明する。この撮像装置100は、制御部101、撮像部103、操作部104、表示部106、通信部107、推論エンジン110、記録部108、学習部112、記録部113を有する。
撮像部103は、光学系103aおよび撮像素子103bを有する。光学系103aは、フォーカスレンズ等の光学レンズを有し、被写体像を形成する。撮像素子103bは、CCDイメージセンサセンサやCMOSイメージセンサ等のイメージセンサである、撮像素子103bは、光学系103aによって被写体像が形成する位置付近に配置され、被写体像を光電変換する。撮像部103は、この他、光学系103aを透過する光量を制御するための絞り、撮像素子103bの露光時間を制御するメカニカルシャッタ、撮像素子103bから読みだされた画像信号の増幅処理やAD変換処理等を行う回路等を有していてもよい。撮像部103は、対象物を撮像し、画像データを出力する撮像部として機能する。
制御部101は、プロセッサであり、また、ASIC(Application Specific Integrated Circuit)によって構成してもよく、CPU(Central Processor Unit)を有し、記録部4に記憶されているプログラムに従って、撮像装置100内の各部を制御することによって、全体を制御する。制御部101は、記録制御部101a、操作判定部101b、通信制御部101c、画像処理部101d、パラメータ制御部101e、特定部位コマ判定部101fを有する。これらの各部は、プロセッサ内のハードウエア回路および/またはプログラムによるソフトウエア等によって実現される。
記録制御部101aは、撮像画像108b、予測画像108c、および比較画像108dを記録部108に記録する際の制御を行う。撮像画像108bは、撮像部103によって取得され画像処理部101dによって画像処理された画像である。予測画像108cは、推論エンジン110によって予測された画像である。比較画像108dは、過去と現在の画像を比較する画像である。図3を用いて後述するように、撮影画像、予測画像、および/または比較画像の画像ファイルは、予測元画像、予測画像、比較元画像、比較画像等、画像の種類と画像データを関連付けられて、記録部108に記録される。
記録制御部101aは、推論部によって推論された予測画像データを記録部に記録するにあたって、元画像データであるか、推論後の画像データであるかを、画像データに関連付けて記録する記録制御部として機能する。この記録制御部は、画像データを記録する際に、対象物の経過進行型の変化、または特定物移動型の変化であるかを分類して記録する(例えば、図3、図8のS23等参照)。記録制御部は、予測画像と、推論に用いた画像データを関連付けて、記録部に記録する(例えば、図3、図8のS23等参照)。記録制御部は、過去の画像データと現在の画像データを関連付けて、記録部に記録する(例えば、図3、図8のS23等参照)。記録制御部は、操作部材によって変更操作の内容を記録する(例えば、図8のS13、S19等参照)。
操作判定部101bは、操作部104によって操作された操作部材の種類や操作量等を判定する。通信制御部101cは、制御部101外にある推論エンジン110、記録部108等との通信を制御する。通信部107を介して外部の画像管理装置などに接続可能であり、外部の画像管理装置等によって画像の保存し、また画像などのデータベースを活用することも可能である。この画像を教師データとした推論モデルを得るために、外部の画像データベース内の画像を利用できるようにしてもよい。画像処理部101dは、撮像部103によって取得した撮影画像、推論エンジン110によって予測された予測画像等の画像に対して、画像処理を施す。
パラメータ制御部101eは、撮像装置100における各種パラメータ、例えば、絞り値、シャッタ速度値、ISO感度値、ピント合わせのための被写体距離、光学系103aの焦点距離、露出補正値等のパラメータを制御する。特定部位コマ判定部101fは、画像中の特定部位、例えば、人物の顔における目・鼻・口等の部位、また患者の患部、商品陳列棚における商品等を判定する。この判定は、画像データを解析することにより実行する。
操作部104は、ユーザの指示を撮像装置100に入力するためのインターフェースであり、操作部104は、パワースイッチ、レリーズ釦、撮影モード設定等の各種ダイヤル操作釦、タッチパネル等の操作部材を有する。操作部104は、操作部材の操作状態を検出し、制御部101に出力する。操作部104は、表示部に表示に対して、変更指示を行うための操作部材として機能する(例えば、図8のS13参照)。
表示部106は、液晶パネル、有機EL等のディスプレイを有し、電子ビューファインダを有していてもよい。表示部106は、撮像部103によって取得された撮影画像をリアルタイムでライブビュー表示し、記録部103に記録された画像を再生表示し、メニュー画像等の制御用の画像を表示する。また、表示部106は、推論エンジン110によって予測された画像や、過去と現在の比較画像を表示する(図6、図7参照)。表示部106は、推論部による推論結果を表示する表示部として機能する(図1、図6(b)、図7(b)、図8のS9、S11等参照)。
通信部107は、通信回路を有し、撮像装置100の外部機器や、インターネットを介してサーバー等との有線通信および/又は無線通信を制御する。
記録部108は、電気的に書き換え可能な不揮発性メモリであり、記録部108の記録領域のうち、画像データの記録領域108aの一部または全部を、撮像装置100に装填自在な記録媒体としてもよい。記録部108に記録される取得画像データ108aとしては、撮像画像108b、予測画像108c、および比較画像108dがあり、これらの画像の全てを記録しなくてもよい。記録部108は、画像データを記録する記録部として機能する。記録部108に記録する画像ファイルのファイル構造については、図3を用いて後述する。
撮像画像108bは、撮影者が操作部104のうちのレリーズ釦等の撮影指示部材を操作した際に、撮像部103によって取得された画像である。予測画像108cは、撮影画像108b等に対して、推論エンジン110によって推論を行い得られた、将来の画像である。推論エンジン110は、例えば、人物の撮影画像を推論することにより、その人物の20年後の容貌等を推測する。比較画像108dは、過去画像と現在画像を比較した画像である。推論エンジン110は、例えば、商品陳列棚に配置されている商品が、ユーザによって購入されたか否かを推論する。
推論エンジン110は、学習部112によって生成された推論モデルを入力し、これを学習成果物として記憶部111に記憶する。推論エンジン110は、記憶部111に記憶された推論モデルを用いて、撮像部103によって取得された画像データについて、将来を予測した画像を、推論により生成する。推論エンジン13は、入力層、中間層、出力層を有し、これらの間のニューロンの結合の強さや重み付けは、記憶部111に記憶された推論モデル(学習成果物)に従って設定される。
推論エンジン110は、撮像部によって取得された画像データの内、経時変化情報を有する類似の対象物の画像を用いて学習することによって、将来画像を予測画像として出力可能な推論モデルを用いて推論する推論部として機能する。この推論部は、撮像部によって取得された画像データは、経過進行型の変化を示す画像であるか、または特定物移動型の変化を示す画像であるかを推論する(図3、図8のS5〜S11等参照)。また、推論部は、撮像部によって取得した画像データに基づいて、所定時間経過後の予測画像を推論する(例えば、図1、図6、図8のS5、S9参照)。また、推論部は、撮像部によって取得した過去の画像データと、現在の画像データを比較し、比較結果に基づいて特定物の移動を推測する(例えば、図7、図8のS5参照)。
本実施形態においては、推論エンジンとして2種類、用意している。すなわち、推論モデルとしての機能を有する辞書Puを有した推論エンジンと、辞書Prを有した推論エンジンである。この2つの推論エンジンは辞書(すなわち、推論モデル)が相違しており、このため、推論する際に、最適な辞書を手動または自動で選択する。なお、推論モデルの数は、1つであってもよく、また3以上であってもよい。
学習部112は、推論エンジン110が推論を行う際に使用する推論モデルを生成する。図2Bに学習部112の詳細な構成を示す。学習部112は、通信部112a、母集合作成部112b、出力設定部112c、および入出力モデル化部112dを有する。
通信部112aは、通信回路を有し、推論部110、通信制御部101c、記録部113等との間で通信を行う。通信としては、学習部112において生成された推論モデルを推論エンジン111に送信し、また、記録部113から母集合として使用する学習用画像データを受信する等の通信がある。
母集合作成部112bは、推論モデルを作成する際に使用する学習用データを作成する。記録部113には、種々の学習用データが記録されており、母集合作成部112bは、その中から、学習に相応しい学習用データを選択する。
出力設定部112cは、入出力モデル化部112dにおいて生成された学習モデルの出力設定を行う。出力設定としては、画像を入力として、その画像から何を推論して出力するかを決定する。どのような画像が出力情報を有して、有効な教師データになるかを判定してもよい。教師データとなる画像には予めアノテーションが行われており、アノテーションを使って何を学習すべきかを指定してあるものもある。しかし、アノテーション付きの画像であれば、出力設定部112cは、アノテーションが何用かなどを判定する機能であってもよい。
また、前述したように、推論エンジン110の記憶部110aには、複数の推論モデルを記憶でき、出力設定部112cは、いずれかの記憶部にいずれかの学習モデルを設定する。すなわち、推論内容に応じた学習モデルの設定を行う。また、出力設定部112cは、特定部位コマ判定部としての機能も有する。画像と、この画像から判定された結果が分かっていれば、この関係をそのまま利用してもよい。すなわち、画像を入力とし、画像から判定された結果を出力にする等、関係があるコマか否かを判定し、関係があるコマを教師データとしてもよい。特定部位コマ判定は、例えば、人物画像の場合に、目、鼻、口等の特定部位を判定する。推論エンジンによって、人物の将来画像を予測する場合には、特定部位を判定し、これらの特定部位がどのように変化するかを予測する。
入出力モデル化部112dは、機械学習用プロセッサを有し、所謂人工知能(AI)を用いて深層学習を行い、推論モデルを生成する。具体的には、入出力モデル化部112は、母集合作成部112bによって作成された画像データの母集合を用い、推論モデルを深層学習によって生成する。深層学習(ディープラーニング)は、入出力の関係を学習可能な関数近似器である。
入出力モデル化部112dは、推論エンジン110と同様の構成を有している。入力層に母集合作成部112bに作成された画像データを入力する。また、出力層に、画像の評価結果、例えば、教師データ(正解)を与える。入力と出力が一致するように、各ニューロンの結合の強さ(重み付け)を算出することによって推論モデルを生成する。なお、本実施形態においては、入出力モデル化部112は、深層学習によって推論モデルを生成するが、深層学習に限られず、機械学習であればよい。また、深層学習を行う場合には、用途を指定して行う。用途としては、例えば、人物画像の将来の画像を予測するための学習、商品を陳列した棚においてユーザが購入のために商品を確保したか否かを判断するための学習等がある。入出力モデル化部112dにおける深層学習の詳細については、図4、図5を用いて後述する。
ここで、深層学習について、説明する。「深層学習(ディープ・ラーニング)」は、ニューラル・ネットワークを用いた「機械学習」の過程を多層構造化したものである。情報を前から後ろに送って判定を行う「順伝搬型ニューラル・ネットワーク」が代表的なものである。順伝搬型ニューラル・ネットワークは、最も単純なものでは、N1個のニューロンで構成される入力層、パラメータで与えられるN2個のニューロンで構成される中間層、判別するクラスの数に対応するN3個のニューロンで構成される出力層の3層があればよい。入力層と中間層、中間層と出力層の各ニューロンはそれぞれが結合加重で結ばれ、中間層と出力層はバイアス値が加えられることによって、論理ゲートを容易に形成できる。
ニューラル・ネットワークは、簡単な判別を行うのであれば3層でもよいが、中間層を多数にすることにより、機械学習の過程において複数の特徴量の組み合わせ方を学習することも可能となる。近年では、9層〜152層のものが、学習にかかる時間や判定精度、消費エネルギーの観点から実用的になっている。また、画像の特徴量を圧縮する、「畳み込み」と呼ばれる処理を行い、最小限の処理で動作し、パターン認識に強い「畳み込み型ニューラル・ネットワーク」を利用してもよい。また、より複雑な情報を扱え、順番や順序によって意味合いが変わる情報分析に対応して、情報を双方向に流れる「再帰型ニューラル・ネットワーク」(全結合リカレントニューラルネット)を利用してもよい。
これらの技術を実現するために、CPUやFPGA(Field Programmable Gate Array)等の従来からある汎用的な演算処理回路を使用してもよい。しかし、これに限らず、ニューラル・ネットワークの処理の多くが行列の掛け算であることから、行列計算に特化したGPU(Graphic Processing Unit)やTensor Processing Unit(TPU)と呼ばれるプロセッサを利用してもよい。近年ではこのような人工知能(AI)専用ハードの「ニューラル・ネットワーク・プロセッシング・ユニット(NPU)」がCPU等その他の回路とともに集積して組み込み可能に設計され、処理回路の一部になっている場合もある。
その他、機械学習の方法としては、例えば、サポートベクトルマシン、サポートベクトル回帰という手法もある。ここでの学習は、識別器の重み、フィルター係数、オフセットを算出するものあり、これ以外にも、ロジスティック回帰処理を利用する手法もある。機械に何かを判定させる場合、人間が機械に判定の仕方を教える必要がある。本実施形態においては、画像の判定を、機械学習により導出する手法を採用したが、そのほか、人間が経験則・ヒューリスティクスによって獲得したルールを適応するルールベースの手法を用いてもよい。
図2A、図2Bに戻り、記録部113は、電気的に書き換え可能な不揮発性メモリであり、学習部112において使用する学習用画像データを記憶する。記録部112は、学習用画像データ113aを記憶し、この学習用画像データ113aとして、変化前後画像および前後情報113bと、経時比較画像vs用途情報113cを記憶する。記録部113に記録する画像ファイルの詳細については、図3を用いて後述する。
変化前後画像および前後情報113bは、例えば、人物画像であれば、同一人物におけるx年前の画像と現在の画像の組み合わせ、x年前の画像とy年前の画像の組み合わせがある。前後情報としては、x年前と現在、x年前とy年前のような時間情報、人物を特定する情報等がある。すなわち、変化前後の画像と、この変化前後のそれぞれの画像の情報がある。同じ対象物の経時変化に限らず定点撮影など同じシーンの画像を取得して利用する場合でも、撮影内容に変化がある画像は、画像がどうなっていくかを予測するための有効な教師データとなりえる。しかし、どちらが前の画像でどちら後の画像かと言う前後関係の情報が明記されていないと、正しい教師データにならない。こうした前後関係情報、あるいは経過情報を有することで画像データとして対象物の変化がどう変わるかを管理可能となる。
経時比較画像vs用途情報113cは、経時変化する画像と、その対象物の用途情報である。経時比較画像は、例えば、商品棚に陳列された商品でいえは、x1時間前、x2時間前、・・・xx時間前といった比較用の画像がある。また、用途情報は、推論の用途である。例えば、人物画像であれば、将来の容貌の変化を知るための画像等があり、また、人間の傷の回復の変化を知るための画像等がある。また、棚等に陳列された商品が購入されたか否かを知るための、過去と現在の商品の在庫状況の変化を示す画像ある。時間ごとに撮影された商品棚と商品の画像を比較することにより、ユーザにより、商品が購入されたことを判定することができる。
このように、前後の関係の情報を有する画像があっても、それがどのような推論に有効かは、画像ごとに異なる場合があるので、ここでは、どの画像がどのような用途に使われるかを管理して記録できるようにする。これらの用途は、将来を予想して撮影時から付けてもよいし、撮影後にユーザが追記してもよい。いずれにせよ、画像による将来予測と言っても様々な将来予測があり、経年変化や経時変化として何年後の予測とか、何日後、何時間後の予測用といった分類を行ってもよい。
病変にしても悪化時と治癒時では経過が異なり、それぞれの場合を記録した画像が教師データ化されて、それぞれの場合の将来を判定できるようにしてもよい。もちろん、これらを両方学習させ、治癒しそうかどうかを予測させてもよい。同じ怪我の画像でも治療した場合と放置した場合では、経時変化が異なるが、怪我をした時点ではどちらになるかは判定できない。しかし、少しでも治療を受けた後であれば、治療時特有の画像変化が現れて、将来は治癒するという予想ができたりもする。したがって、用途情報は、どのような時間間隔の予想をしたいかや、どのような予想をしたいかによって変わる情報であってもよい。
このように画像を管理することによって、推論に用いた過去画像の検索も可能となり推論エンジンが時としてブラックボックス化するのを防ぐことが出来る。学習した教師データを管理すれば、どのような来歴の推論エンジンであるかのエビデンスになりうる。また、目的、用途に応じ、あるいは利用された教師データなど、推論に用いた学習時のデータ群を管理することも重要である。事象の変化には緩急がある場合もあり、これらを学習できるようにしてもよい。このためには、変化した画像とその時の経過時間を一緒に管理して、この経過時間情報を学習時に利用すればよい。環境や個体による差異がある場合もあるので、遅いケース、速いケースを分けて学習してもよく、一緒に合わせて学習してもよい。
なお、学習部112および/または記録部113は、撮像装置100以外に配置してもよい。例えば、学習部112と記録部113を外部のサーバーに配置し、撮像装置100内の推論エンジン110は、外部で生成された推論モデルを、通信部を介して、受信するようにしてもよい。
次に、図3を用いて、記録部108に記録する画像データのファイル構造について説明する。画像ファイル121〜124は、予測画像の生成に関連する画像であり、主として予測画像108cに記憶されている画像である。
画像ファイル121は、画像データ121a、経過進行型121b、予測元画像121cを有する。すなわち、画像データ121aは、推論エンジン110によって将来の画像を予測した際に用いられた画像データである。経過進行型121bは、画像のタイプを示し、「経過進行型」は、予測画像の生成に関連することを意味する。また、「経過進行型」は、成長や老化、治癒、悪化など連続的に変化する事象を画像で捉えた時、その経過を示す画像であることを示す情報、信号であって、これを管理する時、「経過進行型」として分類可能なようにしている。特定の表形式のこの部分にフラグがついていれば、このケースであると分類できるような標準化を行えば、ローカル環境でなくても、広く利用が期待できる。もちろん、表形式の特定の部分に記述する形式でもよいし、必ずしも表形式である必要はなく、特定の分類可能な情報を書き込む形でもよい。以下、図3で説明する「タイプ」の情報は、この形式で記録可能にしてある。
予測元画像121cは、画像であることを示す情報(例えば、タグ情報)であり、「予測元画像」は、推論エンジン110によって将来の画像を予測した際に使用された画像であることを示す。予測元画像であることを示す情報の他に、予測後画像のファイル名等を関連付けて記録してもよい。
画像ファイル122は、画像データ122a、経過進行型122b、予測後画像122c、推論エンジン種類122d、予測条件122eを有する。画像データ122aは、推論エンジン110によって、予測された将来の画像の画像データである。経過進行型122bは、画像のタイプを示し、予測画像の生成の生成に関連することを意味する。予測後画像122cは、予測後画像であることを示すタグ情報であり、「予測後画像」は、推論エンジン110によって予測された予測画像であることを示す。
推論エンジン種類122dは、推論エンジン110における推論エンジンの種類を示す。学習部112は、推論の目的に応じて種々の推論モデルを生成し、推論エンジン110はこれらの複数の推論モデルのうちの1つを用いて推論する。この推論エンジン種類122dは、種々の推論モデルの中で、推論モデルの種類を示す情報である。予測条件122eは、将来の画像を推論する際に、何年後の画像を推論したかを示す情報である。
画像ファイル123と画像ファイル124は、予測画像を生成後に、検証用に使用する画像ファイルである。画像ファイル123は、画像データ123a、経過進行型123b、最新取得画像123cを有する。画像データ123aは、直近の撮影によって取得された画像データである。経過進行型123bは、画像のタイプを示し、予測画像の生成の生成に関連することを意味する。最新取得画像123は、最新取得画像であることを示すタグ情報である。
画像ファイル124は、画像データ124a、経過進行型124b、過去画像124cを有する。画像データ124aは、過去に撮影された画像データである。予測元画像121cと兼用するようにしてもよい。経過進行型124bは、画像のタイプを示し、予測画像の生成の生成に関連することを意味する。過去画像124cは、取得された画像の中で過去に取得された画像であることを示すタグ情報である。過去の画像データ124aと、最新の取得画像123aを用いて、人物の将来を予測する推論モデルを修正するようにしてもよい。この場合には、これらの画像データを、学習用の記録部113に移動させる。
画像ファイル125〜128は、比較画像108dに記憶され、過去と現在の画像を比較することによって、物品等の特定物の移動に関連する画像である。画像データ125aは、推論エンジン110によって、比較され物品等の特定物の移動を推論した画像の画像データである。特定物移動型125bは、画像のタイプを示し、特定物の移動に関連することを意味する。予測元画像125cは、画像が予測元画像であることを示すタグ情報であり、「予測元画像」は、推論エンジン110によって特定物の移動を推論した際に使用された画像であることを示す。なお、予測後画像のファイル名等を、画像ファイル125に関連付けて記憶してもよい。
画像ファイル126は、画像データ126a、特定物移動型125b、予測後画像126c、推論エンジン種類122d、予測条件122eを有する。画像データ126aは、推論エンジン110によって、特定物の移動を推論された場合の予測後の画像の画像データである。特定物移動型126bは、特定物の移動に関連する画像であることを示すタグ情報である。なお、予測元画像のファイル名等を、画像ファイル126に関連付けて記憶してもよい。
推論エンジン種類126dは、推論エンジン110における推論エンジンの種類を示す。学習部112は、推論の目的に応じて種々の推論モデルを生成し、推論エンジン110はこれらの複数の推論モデルのうちの1つを用いて推論する。この推論エンジン種類122dは、種々の推論モデルの中で、推論モデルの種類を示すタグ情報である。予測条件126eは、特定物の移動を推論する際に、何年後の画像を推論したかを示す情報である。
画像ファイル127と画像ファイル128は、特定物の移動に関する予測画像を生成後に、検証用に使用する画像ファイルである。画像ファイル127は、画像データ127a、特定物移動型127b、最新取得画像127cを有する。画像データ127aは、直近の撮影によって取得された画像データである。特定物移動型127bは、特定物の移動についての予測画像の生成の生成に関連する画像であることを意味する。最新取得画像127cは、画像の位置付けを示し、取得された画像の中で最新の取得画像であることを示すタグ情報である。
画像ファイル128は、画像データ128a、特定物移動型128b、過去画像128cを有する。画像データ128aは、過去に撮影された画像データである。予測元画像125cと兼用するようにしてもよい。経過進行型128bは、画像のタイプを示し、特定物の移動についての予測画像の生成の生成に関連することを意味する。過去画像128cは、画像の位置付けを示し、取得された画像の中で過去に取得された画像であることを示すタグ情報である。過去の画像データ128aと、最新の取得画像127aを用いて、特定物の移動について将来を予測する推論モデルを修正するようにしてもよい。この場合には、これらの画像データを、学習用の記録部113に移動させ、学習部112においてこれらの画像データを用いて、深層学習を行う。
次に、図4を用いて、学習部112において行われる深層学習による推論モデルの生成について説明する。
図4(a)は、変化前後の状態を推論するための深層学習を示す。変化前後の状態としては、人物の顔等の将来の予測がある。例えば、特定人物の顔画像を撮影し、この顔画像の将来(例えば、1年後、5年後、20年後、30年後、・・・)の画像を予測することがある。もちろん、顔画像に限らず、特定人物の体全体を予測してもよい。さらに、変化前後の状態としては、人体の傷の進行状態や回復状態の予測がある。傷としては、皮膚に受けた傷でもよく、また、人体内部の傷等であってもよい。さらに、変化前後の状態としては、動物や植物の成長であってもよい。
また、変化前後の状態としては、商品が棚等に陳列され、顧客が商品を購入するために、棚から商品を買い物籠に移す場合がある。顧客は、単に商品を確かめるために商品を手に取って、観察した後、買い物籠に入れる場合があれば、一方、気に入らず商品を棚に戻す場合がある。さらに、買い物籠に入れ、一旦、その場合を離れた後、気が変わり、商品を棚に戻す場合がある。また、商品の陳列の形態として、棚に陳列する以外にも、服飾のように、ハンガーにかけてある場合もあれば、本の平積みの場合もあり、種々の形態がある。
さらに、変化前後の予測として、将来を予測することについて説明したが、これに限らず、変化後の画像から変化前の画像を推測するようにしてもよい。図4(a)に示す例は、これらの種々の状態であって、時間と共に状態が変化した場合、将来の画像を予測する(過去の画像を推測することも含む)ための深層学習である。
この入出力モデル化部112dの入力は、母集合作成部112bによって作成された撮影画像Aである。また、ネットワークデザイン113eには、推測画像を生成するためのデータセット(推論モデル)が生成される。このデータセットは、推論エンジンの中間層の各ニューロン間の結合の強さを示す。
入出力モデル化部112dが推論モデル生成の際に使用する母集合は、記録部113に記録されている変化前後画像および前後情報113bである。推論モデルの生成にあたっては、前後情報(時刻情報および/または位置情報)が付与された一連の画像群を使用する。この情報113bは、時刻情報(および/または位置情報)に基づいて画像を追跡することにより、例えば、特定人物の将来の顔画像を予測し、また顧客の購入対象物(商品)が何であったか、また購入のために商品を確保したかを推測するための情報であり、この情報を教師用データとして使用する。
ネットワークデザイン113eは、推論モデル113cと同じように、入力層、複数の層を有する中間層、および出力層を有する。ネットワークデザイン113eの入力層には、撮影画像Aが入力され、また、撮影画像Aを入力した際に、教師用データを用いて、特定人物の将来の画像を予測した推測画像B、または商品を購入したか否かを推測する推測画像B等を出力できるように、ネットワークデザイン113eの各ニューロン間の結合の強さを示すデータセットは深層学習により設定される。
深層学習により生成されたネットワークデザイン113eのデータセットは、推論モデルPrであり、この推論モデルPrは、推論エンジン111に送信され、記憶部111に記憶され、推論の際に使用される。
図4(b)は、画像と経時比較用途を推論するための深層学習を示す。図4(a)では、変化前後の状態を推測するための推論モデルを作成していた。図4(a)において説明したように、予測画像としては、例えば、特定人物の将来を示す画像、傷等の将来の状態を示す画像等があり、比較画像として、例えば、棚に陳列した商品の購入か否かを推測する画像等がある。この図4(b)に示す深層学習は、現在、入力されている画像が、種々の予測・比較のうちのいずれの予測・比較に使用されるものかを推測するための学習である。例えば、人物の顔画像であれば、将来の顔画像の推測用、棚に商品が陳列されている画像であれば、商品購入の判断用、人体の傷の画像であれば、傷の進行状態を予測する画像等であることが推測される。この深層学習は、いずれの用途に使用されるのかを推測する。
この入出力モデル化部112dの入力は、母集合作成部112bによって作成された撮影画像Aである。また、ネットワークデザイン(ニューラル・ネットワーク)113eは、用途を推測するためのデータセット(推論モデル)が生成される。このデータセットは、図4(a)の場合と同じく、推論エンジンの中間層の各ニューロン間の結合の強さを示す。
入出力モデル化部112dが推論モデル生成の際に使用する母集合は、記録部113に記録されている経時比較画像vs用途情報113cである。推論モデルの生成にあたっては、用途情報(顔の将来画像の予測、傷の将来画像の予測、棚の商品陳列画像の予測)が付与された画像(一連の画像群であってもよい)を使用する。この情報113cは、用途情報として使用され、撮影画像Aの用途を予測する。
ネットワークデザイン113eは、推論モデル113cと同じように、入力層、複数の層を有する中間層、および出力層を有する。ネットワークデザイン113eの入力層には、撮影画像Aが入力され、また、撮影画像Aを入力した際に、教師用データを用いて、特定人物の将来の画像を予測した推測画像B、または商品を購入したか否かを推測する推測画像B等を出力できるように、ネットワークデザイン113eの各ニューロン間の結合の強さを示すデータセットは深層学習により設定される。
図4(b)に示す深層学習により生成されたネットワークデザイン113eのデータセットは、推論モデルPpであり、この推論モデルPpは、推論エンジン111に送信され、記憶部111に記憶され、撮影画像Aの用途を推論する際に使用される。
次に、深層学習の変形例として、ガン(GAN:Generative Adversarial network)モデルを利用する入出力モデル化部の例について説明する。このGANモデルは、図4(a)に示した変化前後画像の推論モデルの生成、および図4(b)に示した用途判断用の推論モデルの生成のいずれの場合であっても利用できるが、図4(c)において、変化前後画像の推論モデルの生成に利用した例について説明する。
まず、GANモデルの概略について説明する。入力データと教師用データを用いて学習し、これらの入力データと似たような新しいデータを出力するモデルのことを生成モデル(推論モデル)と呼ぶ。別の言い方をすると、教師用データの分布と生成データ(出力データ)の分布が一致するように学習していくようなモデルである。GANモデルはこの生成モデルの一種である。 通常、モデルが持つパラメータ数に対して教師用データの量が圧倒的に大きいため、モデルは特徴を捉えることが求められる。生成モデルには、GAN以外にもVAE(Variational Autoencoder)など他にも注目されているモデルがあり、それぞれ長所・短所がある。例えば、GANは学習が不安定であるが、他の手法に比べてくっきりとした画像が生成される傾向がある。
次に、GANモデルの仕組みついて説明する。GANではジェネレータ(generator)112dgとディスクリミネータ(discriminator)112ddという2つのネットワークを有する。ジェネレータ(Generator)112ddは、教師用データと同じようなデータを生成しようとする。一方、ディスクリミネータ(discriminator)112ddはデータが教師用データに由来するものか、それとも生成モデルに由来するものかを識別する。また、GANにおけるニューラル・ネットワークは、何層かのエンコーダ、何層かのトランスフォームズ(変換部)、および何層かのデコーダを有する。エンコーダの中には、例えば、20層からなるコンボリューション層を有し、トランスフォームズは10層、デコーダは10層からなる。
図5に示す例では、ジェネレータ112dgは、学習用の教師データとして、変化前後画像/前後情報113bを使用し、このうちの変化前画像を経年前画像Aとして入力し、ネットワークデザイン113eは、教師用データのうちの前後情報をと一致するようにデータセットを設定し、推論結果として出力Bを出力する。ディスクリミネータ(分類機)112ddは、ジェネレータ112dgの出力Bを、ネットワークデザイン113fに入力する。ディスクリミネータ112dの学習用データは、経年後画像vs嘘・本当データ113dである。ジェネレータ112dgの推論結果である出力Bは、嘘の情報であることを用いて、ディスクリミネータ112ddが嘘を出力するか、本当と出力するに応じて、ロス値(誤答率)を算出することができる。ディスクリミネータ112ddは、この結果を、ジェネレータ112dgにフィードバックする。
すなわち、ジェネレータ112dgは、教師用データと一致するように推論できるように、ネットワークデザイン113eのデータセットを調整しながら、推論結果(出力B)を出力する。この推論結果を入力するディスクリミネータ112ddは、教師用データにできるだけ似ているが異なる結果を出力し、ジェネレータ112dgにフィードバックする。次第にディスクリミネータの能力が上がり、教師用データと推論結果をうまく見分けられるようになったとする。するとジェネレータ112dgは更に教師用データに近い結果を出力できるようになる。相互に能力が向上するように、競い合っていくことにより、最終的には、ジェネレータ112dgは、教師用データと区別ができないような推論結果を出力するようになる。
GANでは、ジェネレータ112dgと、ディスクリミネータ112ddの学習が進み、最終的には、ジェネレータ112dgは、教師用データと同じようなデータを生成できるようになることが期待される。このような状態では、学習用データと推論結果(生成)データを見分けることができなくなるため、ディスクリミネータ112ddの正答率は50%になる。GANはGoodfellow et al. (2014)によって最初に提案された。この研究ではジェネレータもディスクリミネータもどちらも基本的には多層パーセプトロンで、ドロップアウトを使って学習させている(一部CNNを使用しているものもある)。
このGANは、ジェネレータ112dgとディスクリミネータ112ddが、競い合って、ネットワークデザインのデータセットを調整していくので、少ない教師用データであっても精度の高いネットワークデザイン(推論モデル)を生成することができる。GANで生成された推論モデル(ネットワークデザイン)Prは、撮像装置100の推論エンジン110の記憶部111に記憶され、推論に使用される。
このGANによる深層学習は、本実施形態においては、図2Bに示す学習装置としての入出力モデル化部112dによって実行される。この入出力モデル化部112dは、推論部で使用する推論モデルを生成するための学習部としての機能を果たす。この学習部は、ジェネレータタイプのネットワークデザインと、ディスクリミネータタイプのネットワークデザインを有し、上記ジェネレータタイプのネットワークデザインの入力部に教師用の画像データを入力し、ジェネレータタイプのネットワークデザインの出力を、上記ディスクリミネータタイプのネットワークデザインの入力部に入力し、さらに、ディスクリミネータタイプのネットワークデザインの教師用の前後情報を教師用データとして入力する(図5参照)。
次に、図6を用いて、人物の顔画像の将来の予測画像の表示の仕方について説明する。図6(a)は、撮影者201が撮像装置100を用いて、母親203に抱っこされた赤ちゃん205を撮影する様子を示している。撮像装置100の表示部106には、赤ちゃん205が表示される。このとき、撮影者201が、予測画像表示モード等、将来の予測画像を表示させるモードを、操作部104を操作することにより、選択すると、図6(b)に示すように、将来の予測画像106a〜106cが表示される。図6(b)には、不図示であるが、何年後の予測画像であるかを表示してもよい。
予測にあたっては、推論エンジン110は、まず、用途推論の推論モデルを用いて、用途を推論する。図6に示す例では、人物の顔写真が取得されていることから、推論の用途としては、人物の将来の予測と推論する。この推論結果に基づいて、推論エンジン110は、次に、人物の将来予測画像を推論する推論モデルを用いて、将来の画像を推論する。推論にあたっては、x1年後、x2年後、x3年後・・・と複数の推論を行ってもよい。図6に示す例では、3つの年について推論している。
撮影者201は、予測画像106a〜106cを観察し、構図を選択して、レリーズ釦等を操作することにより、画像を記録する。この際、現在の画像を記録部108に撮像画像108aとして記録し、併せて予測画像を記録部108に予測画像108cとして記録する。予測画像は自動的にすべての画像を記録してもよく、また撮影者201が操作部104を操作して選択した画像のみを記録してもよい。この記録する際の画像ファイルは、図3に示したようなファイル構造を有する。このように、写真を撮影する際に、将来の画像も併せて観察し、また記録できるようにすることにより、画像を多彩にでき、また楽しむことができる。
また、このときの画像ファイルは図3の画像ファイル121、122に示したように、予測元画像121c、予測後画像123cを併せて記録しておく。これにより、予測画像を作成したときの元画像を後日、容易に確認することができ、また証拠性を向上させることができる。
次に、図7を用いて、棚に陳列されている商品の変化を検出した場合の表示の仕方について説明する。前述したように、商品が棚等に陳列され、顧客が商品を購入するために、棚から商品を買い物籠に移す場合がある。本実施形態では、顧客が購入するか否かを撮影画像に映っている商品の状態変化に基づいて判定する。
図7(a)は、陳列棚211a、211bに商品が陳列されており、撮影者201が撮像装置100でその様子を撮影している。時刻t1において、撮影者201は陳列棚211と商品を撮影し、続いて時刻t2において撮影者201は陳列棚211と商品を撮影する。
この間に、顧客(図示せず)が商品213を購入するために、レジ等に移動させると、陳列棚211上から無くなる。この状況が撮像装置100の表示部106に表示される。すなわち、移動された商品213が、表示部106に点線で表示される。図7では、撮影者201が撮像装置100を操作する様子を示している。しかし、これに限らず、監視カメラ等を設置し、商品の購入状況を監視するようにしてもよい。
また、複数の推論エンジン(予測画像用推論エンジン)を用意して、商品の購買予測を行う場合と、地震などで散らばった時に、どのような事態になるかを予測する場合で、異なる推論エンジンを使えるようにしてもよい。例えば、平積みにされた本の在庫を予測したい場合と、単に、地震などで本が散らばる様子を予測したい場合で、同じソース画像からも異なる推論結果となるケースがある。ユーザがこれらを選択できるようにし、推論によって生成された画像には、どの推論エンジンを用いたかを明示したり、メタデータとして「使用した予測画像推論エンジン」を画像データと関連付けて記録してもよい。
次に、図8および図9に示すフローチャートを用いて、画像取得装置(撮像装置)の動作について説明する。このフローチャートは、制御部101内のCPUが記録部108等に記憶されているプログラムに基づいて、撮像装置100内の各部を制御することにより実現する。
画像取得装置制御のフローが開始すると、まず、撮影モードか否かを判定する(S1)。撮影モードは撮像装置100を用いて撮影画像を取得するためのモードである。モードは、初期状態では撮影モードが設定されており、その後は操作部104によって設定することができる。
ステップS1における判定の結果、撮影モードが設定されている場合には、画像を入力し、入力した画像を表示する(S3)。ここでは、撮像部103によって被写体の画像データを取得し、画像処理部101dがこの画像データに対して画像処理を施した後、表示部106にライブビュー画像を表示する。
次に、推論を行う(S5)。ここでは、入力された画像に対して、推論エンジン110が推論を行う。推論としては種々あるが、前述したように、人物の将来の容貌を予測する推論でもよく、また人体の傷の将来の状態を予測する推論でもよく、橋梁や建物の現在状態から将来の状態を予測する推論でもよい。また、商品の陳列棚の過去の状態と現在の状態変化から、商品の購入状態を判断する推論もある。
また、ユーザがどの様な未来を見たいかによって、推論の仕方を変えてもよい。しかし、パーソナルユース、あるいは特定の状況下で利用される機器の場合、ユーザや状況に応じて、どの推論を優先させるかを決めておいて、その旨を機器に記録しておいてもよい。例えば、図6や図7において説明したシーンでは、対象物を判定してどのエンジンを作動させるかを決めておいてもよい。また、ユーザが手動で、何時の、何を予測したいかを設定して、その結果選ばれた推論エンジンを利用してもよい。何時の未来を見たいかも選べるようにして、それに即した推論エンジンを用意してもよく、そのニーズを元に教師データを集めて学習を開始して推論エンジンを作ってもよい。1分後、1日後、1年後の全てを予測して見せてもよいし、変化が大きくて予想しにくいタイミングによって予測する画像を決めてもよい。
ユーザ指定の未来画像の推論の際に、フレキシビリティを確保し、カスタマイズを容易にするためにも、教師データが豊富(リッチ)であることが好ましい。つまり、経過時間情報の細かさやバラエティを持った教師データがあって、かつ、それが付帯情報(図3参照)によって分類、識別可能に管理されている。物や人及び疾患の変化は比例ではなく変化の緩急がある場合がある。そこで、学習のさせ方を学習部が工夫すれば、ゆっくり変化する期間(この傷はこのくらい変化しない等)と変化しない時の画像例、急に変化する期間(この傷はしばらく治らないが、忘れたころには見えなくなる等)と、治った後の画像例を合わせて表示できるような推論エンジンに設計することも可能である。
つまり、推論の種類は推論エンジン110に記憶されている推論モデルの種類に依存する。図4(b)を用いて説明したような、画像に対する用途を判定する推論モデルが記憶されている場合には、この推論モデルによって推論の用途を決めるようにしてもよい(図1の表示部106におけるテキスト表示「将来予測できます」参照)。将来予測する推論を行うことができる場合には、表示部106にその旨を表示するようにしてもよい。この場合には、表示するか否かをユーザが選択できるようにしてもよい。
上述したような工夫によって、撮像部によって取得された画像データを、推論エンジンを使って将来予測画像に変換する。この時使われる推論エンジンは、経時変化情報を有する類似の対象物の画像を教師データとして学習したものであり、入力した画像に対して、将来予測画像を出力する。この推論モデルの入力の元画像としては、ここではライブビュー画像でもよく、撮影した画像でもよい。また、将来画像推論用の推論エンジンには、様々な種類があり、シーンに応じて使い分けてもよく、撮像部によって取得された画像データが、経過進行型の変化を示すのにふさわしい画像であるか、または特定物移動型の変化を示す方がふさわしい画像であるかを判定して、それぞれの推論エンジンを選択して利用してもよい。
推論を行うと、対象物経時変化か否かを判定する(S7)。推論は大別して、経時変化に関する推論と、画像の比較に関する推論の2種類がある。経時変化に関する推論は、例えば、人物の容貌について予測したり、人体の傷の変化を予測するように、将来、どのように変化するかを推論する。また画像の比較に関する推論は、例えば、過去の陳列棚の商品画像と、現在の陳列棚の商品の画像を比較し、購入されたか否かを推論する。このステップS7では、ステップS5における推論の種類に基づいて、対象物の経時変化であるか否かを判定する。
ステップS7における判定の結果、対象物経時変化であった場合には、予測画像を表示する(S9)。ステップS3において取得した画像を、ステップS5において将来画像を予測しているので、この予測画像を表示部106に表示する(図6(b)の表示部106に表示された予測画像106a〜106c参照)。
一方、ステップS7における判定の結果、対象物経時変化でなかった場合には、比較用画像を表示する(S11)。ステップS3において取得した画像を、ステップS5において、取得された画像データを、推論エンジンを使って将来予測画像に変換する。この時使われる推論エンジンは、経時変化情報を有する類似の対象物の画像を教師データとして学習したもので、入力した画像に対して、出力は将来予測画像としたものである。推論前と後の画像、つまり推論エンジンの入出力に相当する2画像を比較できるように、比較画像を表示部106に表示する(図7(b)の表示部106に表示された比較画像参照)。また、比較画像は、過去の画像に限らず、予測画像と比較するようにしてもよい。
予測画像または比較用画像を表示すると、次に変更操作がなされたか否かを判定する(S13)。予測画像または比較用画像が表示された場合に、画像内の特定の部位を強調したり、また使用している推論エンジンの推論モデルを変更したい場合がある。このような場合、撮影者が表示部106上でタッチ操作を行ったり、操作部104を操作する等により、予測/比較用画像の変更操作を行うことができる。このステップでは、これらの変更操作がなされたか否かを判定する。
ステップS13における判定の結果、変更操作がなされていた場合には、画像内の部位を強調し、また推論エンジンを変更する(S17)。ここでは、タッチ操作や操作部104の操作によって指定された部位の強調処理を行う。強調表示は、枠表示で変わった点を明示したり、そのほか色やコントラストを変えて確認を容易にしたりする方法でもよい。また、推論モデルの変更指示があった場合には、推論エンジン110に記憶されている推論モデルの一覧表等から推論モデルを選択するようにしてもよい。
続いて、こだわりの変更記録を行う(S19)。撮影者が、変更操作を行っているのは、撮影者のこだわりの表れであることから、この変更操作をこだわりとして記録部108または記録部113に記録しておく。次回、推論を行う際には、この記録に基づいて、推論モデルを選択し、また推論モデルを再学習するようにしてもよい(例えば、図9のS39、S43参照)。変更を記録すると、ステップS7に戻る。
前述のステップS13における判定の結果、変更操作でなかった場合には、次に、選択操作がなされたか否かを判定する(S15)。ステップS9、S11において、予測画像または比較用画像が表示されている。撮影者がこれらの画像の中から1つまたは2以上の画像を選択して記録することを意図する場合に、操作部104の操作部材を操作することによって、選択操作を行う。
ステップS15における判定の結果、選択操作の場合には、予測/比較画像として記録する(S21)。ここでは、ステップS15において選択された予測画像または比較画像を、記録部113に記録する。
予測/比較画像を記録すると、次に、元画像と関連付けて記録する(S23)。予測画像はステップS3において入力した画像を推論することによって生成している。このステップS3において入力した画像が元画像であり、ステップS21において記録した予測/比較画像と、元画像を関連付けて記録する。例えば、図3における画像ファイル121、122のように、画像ファイル中に予測元画像121c、予測画像122cをファイル名等で記録しておく。これによって、いずれの画像から予測されたのか、また予測画像がどの画像であるかが、容易に検索することができ、また証拠性が向上する。
ステップS23においては、取得した将来予測画像データを記録部に記録するにあたって、元画像データであるか、推論後の画像データであるかを、画像データに関連付けて記録する記録制御部と、を有することによって、画像の取り扱い時に混乱がないようにしている。推論結果であるから、エビデンスとして、どのような教師データが使われたかを合わせて記録してもよい。また、将来画像推論用の推論エンジンには、様々な種類があるので、推論部は、撮像部によって取得された画像データが、経過進行型の変化を示す画像であるか、または特定物移動型の変化を示す画像であるかを判定し、その時用いた推論エンジンのタイプを記録してもよい。
前述のステップS15における判定の結果、選択操作でない場合には、次に、撮影操作か否かを判定する(S25)。撮影者は、表示部106を観察し、撮影画像を記録する場合には、操作部材104の内のレリーズ釦等の撮影指示部材を操作する。このステップでは、撮影指示部材が操作されたか否かを判定する。この判定の結果、撮影操作がなされていない場合には、ステップS1に戻る。
一方、ステップS25における判定の結果、撮影操作がなされた場合には、撮影を行い、撮影画像として記録する(S27)。ここでは、撮像部103によって画像を取得し、画像処理部101dにおいて記録用に画像処理を施した後、記録部108に撮像画像108bとして記録する。撮影画像を記録すると、ステップS1に戻る。
前述のステップS1における判定の結果、撮影モードでなかった場合には、次に、推論モデルの取得か否かについて判定する(S31)。撮影者が、推論エンジン110に記憶する推論モデルを取得することを希望する場合には、操作部104の推論モデル取得用の操作部材を操作する。なお、図2Aには、推論モデルは2種類、記憶されているが、3種類以上であっても構わない。
前述のように、予め装置に推論エンジンを組み込んでいてもよいが、本実施形態においては、必要に応じて、装置自身が推論モデルをカスタマイズすることも可能な構成にしてある。ステップS31における判定の結果、ユーザの意志や操作によって推論モデルを取得する状況を判定した場合には、次に、カテゴリを選択する(S33)。推論モデル生成用の学習用画像データには、図2Bに示す例では、変化前後画像、前後情報113bと、経時比較画像vs用途情報113cの2種類のカテゴリがある。この他、どれくらい将来を推論するかの期間などを設定してもよいし、成長と老化、治癒と悪化など、様々な推論のカテゴリがあってもよく、本実施形態では、こうした細かいニーズに応えられるように画僧データにきめ細かい情報を合わせて記録できるようになっている。連続的に記録したものでは、どの時点でどうなるといった管理が出来るようになっている。
ステップS33では、いずれのカテゴリを選択する。なお、カテゴリは、図2Bに示した例以外に分類するようにしても構わない。例えば、図1に示すように、顔1、顔2、病状、商品等のカテゴリに分けている。カテゴリは、適宜、撮像装置100の設計仕様に応じて、選択できるようにすればよい。また、カテゴリに即したデータ管理をして、適切な教師データを採用して学習できるように工夫してあることはすでに述べた通りである。なお、本実施形態においては、装置自身が学習機能を有しているが、外部機器にカスタマイズ学習させた結果である推論モデルをデータとして取得して記録し、これを利用して推論エンジンをカスタマイズしてもよい。
カテゴリを選択すると、次に、教師データを作成する(S35)。教師用データは、入力画像と、入力の結果の組み合わせである。記録部113に記憶されている画像データの中から、それ以外の情報等に基づいて抽出し、教師用データを作成する。
教師用データを作成すると、次に、推論モデルを生成する(S37)。学習部112は、ステップS35で作成した教師用データを用いて、ステップS33において選択したカテゴリに基づく母集合の画像データを入力し、深層学習により、推論モデルを生成する。
推論モデルを作成すると、次に、画像とこだわり内容の信頼性が所定値以上か否かを判定する(S39)。ステップS19において、撮影者がこだわっている箇所を記録している。そこで、このステップでは、ステップS37において生成された推論モデルの信頼性(例えば、LOSS値)が所定値以上であるかを判定する。また、ステップS19において、撮影者がこだわっている内容を記録している。そこで、撮影者がこだわっていた内容についての信頼性が所定値以上であるか否かについても判定する。ステップS19において、撮影者が表示された画像を見て、そうではないと思った場合に、変更操作する。つまり、撮影者にこだわりがある場合には、画像を見た際に何らかのアクションをとることが多い。このステップS39ではこのユーザのこだわりに基づくアクションを判定する。こだわりがあることを判定した場合には、推論エンジンを変えて推論をやり直すとか、目が気になるから目にピントを合わせたとか、そうしたマニュアル操作を行う。ユーザが何にこだわっているかを記録しないと、次も見当はずれの予測をしてしまう。
ステップS39における判定の結果、信頼性が所定値以上ない場合には、学習母体を再設定する(S43)。ここでは、母集合作成部112bが、学習用の母集合を再設定する。このとき、撮影者は、どのような意図で学習するかを、テキスト入力してもよく、代表的な画像を入力するようにしてもよい。例えば、ステップS39において、撮影者のこだわりがあり、推論エンジンを変える場合には、母集合を再設定することによって行ってもよい。母集合を再設定すると、ステップS37に戻り、再度、推論を行う。
一方、ステップS39における判定の結果、信頼性が所定以上の場合には、記録部に推論モデルを記録する(S41)。このステップでは、学習部112が作成した推論モデルを、推論エンジン110の記憶部111に記録する。推論モデルを記録すると、ステップS1に戻る。
前述のステップS31における判定の結果、推論モデルの取得でない場合には、一覧表示と、各コマの判定を行う(S45)。ステップS45、S47において、再生表示を行う。まず、このステップでは、記録部108に記録されている撮像画像108b等の画像をサムネイル画像で一覧表示する。撮影者、一覧表示の中から、拡大して再生表示を望む場合には、そのコマを選択する。このステップでは、いずれのコマが選択されたかを判定する。
続いて、指定コマを拡大再生する(S47)。ここでは、記録部108から読みだされた画像データを表示部106に拡大して表示する。拡大再生を行うと、次に、終了か否かを判定する(S49)。撮影者は、再生表示を終了する場合には、再生表示終了用の操作部材を操作する。ここでは、再生表示終了用の操作部材が操作されたか否かを判定する。この判定の結果、操作されていない場合には、ステップS45に戻り、再生表示を続行する。一方、判定の結果、終了であった場合には、ステップS1に戻る。
以上説明したように、本発明の一実施形態においては、対象物を撮像部によって撮像して、画像データを出力し(例えば、図8のS3参照)、画像データを記録部に記録し(例えば、図8のS27参照)、画像データの内、経時変化情報を有する類似の対象物の画像を用いて学習することによって、将来画像を予測画像として出力可能な推論モデルを用いて推論し(例えば、図8のS5参照)、推論された画像データを記録部に記録するにあたって、元画像データであるか、推論後の画像データであるかを、画像データに関連付けて記録している(例えば、図8のS23参照)。このため、予測画像を生成した場合において予測する際に使用した画像や、過去の画像の変化を検出した際に使用した画像を、後日、簡単に検索することができる。
なお、本発明の一実施形態においては、学習部112、および記録部113を撮像装置100に配置し、撮像装置100内で推論モデルを生成していた。しかし、学習部112および/または記録部113を外部のサーバー等に配置し、この外部に配置した学習部において推論モデルを生成するようにしてもよい。この場合には、撮像装置100からサーバーに推論モデルの送信を要求すればよく、無線通信等によって推論モデルを受信する。また、記録部113に記録するデータについても、同様に外部のサーバー等の記録部に記録するようにしてもよい。
また、本発明の一実施形態において、予測画像および比較画像を推論エンジン110によって推論していた。しかし、推論エンジンに限らず、画像処理によって予測画像や比較画像を生成するようにしてもよい。この場合であっても、予測画像や比較画像を生成するに元となったことを画像ファイルに記録しておくと、後に元画像を容易に検索することができる。
また、制御部は、プロセッサで構成するが、前述したハードウエア回路、またはプログラム言語によるソフトウエアによって実現する以外にも、ヴェリログ(Verilog)によって記述されたプログラム言語に基づいて生成されたゲート回路等のハードウエア構成でもよく、またDSP(Digital Signal Processor)等のソフトを利用したハードウエア構成を利用してもよい。これらは適宜組み合わせてもよいことは勿論である。
また、本発明の一実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもミラーレスカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話、スマートフォン、携帯情報端末、パーソナルコンピュータ(PC)、タブレット型コンピュータ、ゲーム機器等に内蔵されるカメラ、内視鏡等の医療用カメラ、顕微鏡等の科学機器用のカメラ、自動車搭載用カメラ、監視用カメラでも構わない。
また、本明細書において説明した技術のうち、主にフローチャートで説明した制御に関しては、プログラムで設定可能であることが多く、記録媒体や記録部に収められる場合もある。この記録媒体、記録部への記録の仕方は、製品出荷時に記録してもよく、配布された記録媒体を利用してもよく、インターネットを介してダウンロードしたものでもよい。
また、本発明の一実施形態においては、フローチャートを用いて、本実施形態における動作を説明したが、処理手順は、順番を変えてもよく、また、いずれかのステップを省略してもよく、ステップを追加してもよく、さらに各ステップ内における具体的な処理内容を変更してもよい。
また、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず」、「次に」等の順番を表現する言葉を用いて説明したとしても、特に説明していない箇所では、この順で実施することが必須であることを意味するものではない。
本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
100・・・撮像装置、101・・・制御部、101a・・・記録制御部、101b・・・操作判定部、101c・・・通信制御部、101d・・・画像処理部、101e・・・パラメータ制御部、101f・・・特定部位、コマ判定部、103・・・撮像部、103a・・・光学系、103b・・・撮像素子、104・・・操作部、106・・・表示部、106a−106c・・・予測画像、107・・・通信部、108・・・記録部、108a・・・取得画像データ、108b・・・撮像画像、108c・・・予測画像、108c・・・比較画像、112・・・学習部、112a・・・通信部、112b・・・母集合作成部、112c・・・出力設定部、112d・・・入出力モデル化部、113・・・記録部、113a・・・学習用画像データ、113b・・・変化前後画像・前後情報、113c・・・経時比較画像vs用途情報、121・・・画像ファイル、121a・・・画像データ、121b・・・経過進行型、121c・・・予測元画像、122・・・画像ファイル、122a・・・画像データ、122b・・・経過進行型、122c・・・予測後画像、122d・・・推論エンジン種類、122e・・・予測条件(何年後)、123・・・画像ファイル、123a・・・画像データ、123b・・・経過進行型、123c・・・最新取得画像、124・・・画像ファイル、124a・・・画像データ、124b・・・経過進行型、124c・・・過去画像、125・・・画像ファイル、125a・・・画像データ、125b・・・特定物移動型、125c・・・予測元画像、126・・・画像ファイル、126a・・・画像データ、126b・・・特定物移動型、126c・・・予測後画像、126d・・・推論エンジン種類、126e・・・予測条件(何年後)、127・・・画像ファイル、127a・・・画像データ、127b・・・特定物移動型、127c・・・最新取得画像、128・・・画像ファイル、128a・・・画像データ、128b・・・特定物移動型、128c・・・過去画像、201・・・撮影者、203・・・母親、205・・・赤ちゃん、211・・・陳列棚、213・・・商品
Claims (13)
- 対象物を撮像し、画像データを出力する撮像部と、
上記画像データを記録する記録部と、
上記撮像部によって取得された画像データの内、経時変化情報を有する類似の対象物の画像を用いて学習することによって、将来画像を予測画像として出力可能な推論モデルを用いて推論する推論部と、
上記推論部によって推論された予測画像データを上記記録部に記録するにあたって、元画像データであるか、推論後の画像データであるかを、上記画像データに関連付けて記録する記録制御部と、
を有することを特徴とする撮像装置。 - 上記推論部は、上記撮像部によって取得された画像データが、経過進行型の変化を示す画像であるか、または特定物移動型の変化を示す画像であるかを推論することを特徴とする請求項1に記載の撮像装置。
- 上記記録制御部は、上記画像データを記録する際に、上記対象物の経過進行型の変化であるか、または特定物移動型の変化であるかを分類して記録することを特徴とする請求項1に記載の撮像装置。
- 上記推論部は、上記撮像部によって取得した画像データに基づいて、所定時間経過後の予測画像を推論し、
上記記録制御部は、上記予測画像と、上記推論に用いた上記画像データを関連付けて、上記記録部に記録する、
ことを特徴とする請求項1に記載の撮像装置。 - 上記推論部は、上記撮像部によって取得した過去の画像データと、現在の画像データを比較し、比較結果に基づいて特定物の移動を推測し、
上記記録制御部は、上記過去の画像データと上記現在の画像データを関連付けて、上記記録部に記録する、
ことを特徴とする請求項1に記載の撮像装置。 - 上記推論部による推論結果を表示する表示部と、
上記表示部に表示に対して、変更指示を行うための操作部材と、
を有し、
上記記録制御部は、上記操作部材によって変更操作の内容を記録することを特徴とする請求項1に記載の撮像装置。 - さらに、推論部で使用する推論モデルを生成するための学習部を有し、
上記学習部は、ジェネレータタイプのネットワークデザインと、ディスクリミネータタイプのネットワークデザインを有し、上記ジェネレータタイプのネットワークデザインの入力部に教師用の画像データを入力し、ジェネレータタイプのネットワークデザインの出力を、上記ディスクリミネータタイプのネットワークデザインの入力部に入力し、さらに、ディスクリミネータタイプのネットワークデザインの教師用の前後情報を教師用データとして入力することを特徴とする請求項1に記載の撮像装置。 - 対象物を撮像部によって撮像して、画像データを出力し、
上記画像データを記録部に記録し、
上記画像データの内、経時変化情報を有する類似の対象物の画像を用いて学習することによって、将来画像を予測画像として出力可能な推論モデルを用いて推論し、
上記推論された予測画像データを上記記録部に記録するにあたって、元画像データであるか、推論後の画像データであるかを、上記画像データに関連付けて記録する、
ことを特徴とする撮像方法。 - 上記推論は、上記撮像部によって取得された画像データは、経過進行型の変化を示す画像であるか、または特定物移動型の変化を示す画像であるかを推論することを特徴とする請求項8に記載の撮像方法。
- 上記画像データを記録する際に、上記対象物の経過進行型の変化であるか、または特定物移動型の変化であるかを分類して記録することを特徴とする請求項8に記載の撮像方法。
- 上記撮像部によって取得した画像データに基づいて、所定時間経過後の予測画像を推論し、
上記予測画像と、上記推論に用いた上記画像データを関連付けて、上記記録部に記録する、
ことを特徴とする請求項8に記載の撮像方法。 - 上記撮像部によって取得した過去の画像データと、現在の画像データを比較し、比較結果に基づいて特定物の移動を推測し、
上記過去の画像データと上記現在の画像データを関連付けて、上記記録部に記録する、
ことを特徴とする請求項8に記載の撮像方法。 - 上記推論の結果を表示部に表示し、
上記表示部の表示に対して、操作部材によって行われた変更指示を検出し、
上記操作部材によって変更操作の内容を記録する、
ことを特徴とする請求項8に記載の撮像方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018228969A JP2020091702A (ja) | 2018-12-06 | 2018-12-06 | 撮像装置および撮像方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018228969A JP2020091702A (ja) | 2018-12-06 | 2018-12-06 | 撮像装置および撮像方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020091702A true JP2020091702A (ja) | 2020-06-11 |
Family
ID=71012887
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018228969A Pending JP2020091702A (ja) | 2018-12-06 | 2018-12-06 | 撮像装置および撮像方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020091702A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019125251A (ja) * | 2018-01-18 | 2019-07-25 | ヤフー株式会社 | 情報処理装置、データ構造、情報処理方法、およびプログラム |
CN113570493A (zh) * | 2021-07-26 | 2021-10-29 | 京东数科海益信息科技有限公司 | 一种图像生成方法及装置 |
WO2022209290A1 (ja) * | 2021-03-30 | 2022-10-06 | 富士フイルム株式会社 | 構造物の状態予測装置、方法及びプログラム |
JP7195659B1 (ja) | 2021-08-04 | 2022-12-26 | 株式会社日豊 | 動画生成装置、動画生成方法、プログラム、動画生成システム |
WO2024029349A1 (ja) * | 2022-08-02 | 2024-02-08 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法、および記録媒体 |
WO2024085289A1 (ko) * | 2022-10-21 | 2024-04-25 | 엘지전자 주식회사 | 인공지능 기반 식물 재배 제어 방법 및 시스템 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016140761A (ja) * | 2015-01-30 | 2016-08-08 | デンタル・イメージング・テクノロジーズ・コーポレーション | 歯の変動追跡および予測 |
WO2018175357A1 (en) * | 2017-03-21 | 2018-09-27 | The Procter & Gamble Company | Methods for age appearance simulation |
-
2018
- 2018-12-06 JP JP2018228969A patent/JP2020091702A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016140761A (ja) * | 2015-01-30 | 2016-08-08 | デンタル・イメージング・テクノロジーズ・コーポレーション | 歯の変動追跡および予測 |
WO2018175357A1 (en) * | 2017-03-21 | 2018-09-27 | The Procter & Gamble Company | Methods for age appearance simulation |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019125251A (ja) * | 2018-01-18 | 2019-07-25 | ヤフー株式会社 | 情報処理装置、データ構造、情報処理方法、およびプログラム |
WO2022209290A1 (ja) * | 2021-03-30 | 2022-10-06 | 富士フイルム株式会社 | 構造物の状態予測装置、方法及びプログラム |
CN113570493A (zh) * | 2021-07-26 | 2021-10-29 | 京东数科海益信息科技有限公司 | 一种图像生成方法及装置 |
JP7195659B1 (ja) | 2021-08-04 | 2022-12-26 | 株式会社日豊 | 動画生成装置、動画生成方法、プログラム、動画生成システム |
JP2023023112A (ja) * | 2021-08-04 | 2023-02-16 | 株式会社日豊 | 動画生成装置、動画生成方法、プログラム、動画生成システム |
WO2024029349A1 (ja) * | 2022-08-02 | 2024-02-08 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法、および記録媒体 |
WO2024085289A1 (ko) * | 2022-10-21 | 2024-04-25 | 엘지전자 주식회사 | 인공지능 기반 식물 재배 제어 방법 및 시스템 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020091702A (ja) | 撮像装置および撮像方法 | |
JP6745857B2 (ja) | 学習装置、学習システム、および学習方法 | |
US20200242154A1 (en) | Image file generating device and image file generating method | |
US11281940B2 (en) | Image file generating device and image file generating method | |
JP5364573B2 (ja) | 不完全なデータからの評価指標 | |
US8330830B2 (en) | Camera user input based image value index | |
JP7064346B2 (ja) | 撮像装置、情報端末、撮像装置の制御方法、および情報端末の制御方法 | |
US20190370602A1 (en) | Learning management device, learning management method, and imaging device | |
JP7195085B2 (ja) | アノテーション装置およびアノテーション方法 | |
US11321618B2 (en) | Learning device, image pickup apparatus, image processing device, learning method, non-transient computer-readable recording medium for recording learning program, display control method and inference model manufacturing method | |
US20170078611A1 (en) | Camera user input based image value index | |
US9408562B2 (en) | Pet medical checkup device, pet medical checkup method, and non-transitory computer readable recording medium storing program | |
JP2021005846A (ja) | 積層型撮像デバイス、撮像装置、撮像方法、学習方法及び画像読み出し回路 | |
JP2020123174A (ja) | 画像ファイル生成装置、画像ファイル生成方法、画像管理装置、および画像管理方法 | |
JP2020119322A (ja) | 学習依頼装置および学習依頼方法 | |
JP7166951B2 (ja) | 学習依頼装置、学習装置、推論モデル利用装置、推論モデル利用方法、推論モデル利用プログラム及び撮像装置 | |
JP2012027678A (ja) | 画像表示装置およびプログラム | |
JP7200030B2 (ja) | 学習装置、撮像装置、学習システム、ai情報提供装置、学習方法及び学習プログラム | |
US11570367B2 (en) | Method and electronic device for intelligent camera zoom | |
JP5918998B2 (ja) | 画像処理装置、撮像装置、制御方法、及びプログラム | |
JP2022055656A (ja) | アシスト装置およびアシスト方法 | |
JP2022040912A (ja) | 検出装置および検出方法 | |
JP6363561B2 (ja) | 情報加工システム | |
JP2020086716A (ja) | 画像表示装置、学習装置、撮像システム、画像表示方法、および学習方法 | |
JP2020099508A (ja) | 撮像装置および撮像装置の制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210730 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220726 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230203 |