JP6895669B1 - 端末、サーバ、プログラムおよび方法 - Google Patents
端末、サーバ、プログラムおよび方法 Download PDFInfo
- Publication number
- JP6895669B1 JP6895669B1 JP2020081371A JP2020081371A JP6895669B1 JP 6895669 B1 JP6895669 B1 JP 6895669B1 JP 2020081371 A JP2020081371 A JP 2020081371A JP 2020081371 A JP2020081371 A JP 2020081371A JP 6895669 B1 JP6895669 B1 JP 6895669B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- situation
- composite
- information
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Image Input (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
図1は、本発明の一実施形態に係る画像解析システム1の機能的な構成を示すブロック図である。図1に示すように、画像解析システム1は、端末10およびサーバ20を含んでいる。ここで、図1に示す例では、画像解析システム1が、端末10を1つ含んでいるが、これは本実施形態を限定するものではない。画像解析システム1は、端末10を複数含む構成であってもよい。
続いて、図1を参照して端末10の構成について説明する。図1に示すように、端末10は、通信部11と、制御部13と、記憶部15とを含む。また、端末10は、撮影装置31と、入力装置41と、表示装置51と、1または複数のセンサ61とにそれぞれ接続される。端末10は、例えば、撮影装置31、入力装置41、表示装置51、および1または複数のセンサ61と一体に構成されたノートPC(Personal Computer)、タブレット端末、デジタルカメラ、およびスマートフォン等として実現される。ただし、撮影装置31、入力装置41、表示装置51、および1または複数のセンサ61の一部又は全部は、端末10に接続される外部装置であってもよい。なお、上述した端末10の具体的態様は本実施形態を限定するものではない。
続いて、図1を参照してサーバ20の構成について説明する。図1に示すように、サーバ20は、通信部21と、制御部23と、記憶部25とを含む。制御部23は、合成画像取得部231と、状況情報抽出部233と、合成画像解析部235とを含む。
以下では、本発明の一実施形態に係る端末10の画像合成処理について詳細に説明する。端末10のユーザは、入力装置41を用いて撮影アプリを起動し、撮影を開始するための操作を行う。
ステップS101において、端末10の制御部13は、入力装置41を介して入力される情報に基づき、撮影を開始する。すなわち、制御部13は、撮影装置31を制御して撮影を行わせる。撮影装置31が撮影した撮影画像を表す画像データは記憶部15のバッファ領域に記憶される。記憶部15に記憶される撮影画像は、複数のフレームを含む。フレームとは、撮影画像を構成する静止画像である。
図2の説明に戻る。ステップS102において、撮影画像取得部131は、撮影画像を取得する。本動作例では、撮影画像取得部131は、記憶部15に記憶された最新のフレームImg11を読み出すことにより、撮影画像を取得する。
続いて、ステップS103において、状況情報取得部133は、撮影画像の撮影時における撮影状況を示す情報を含む状況情報を取得する。状況情報は例えば、撮影状況を示す情報として、撮影装置31のハードウェア情報およびソフトウェア情報の少なくともいずれか一方を含む。ハードウェア情報は例えば、撮影装置31(または端末10)の機種、型番、または撮影装置31の性能(画角、解像度、フレームレート、等)を含む。ソフトウェア情報は例えば、端末10のOS(オペレーティングシステム)の種類、OSのバージョン、または撮影画像のエンコーダのコーデックの設定を含む。例えば、状況情報取得部133は、ハードウェア情報およびソフトウェア情報を、OSが提供するAPI(Application Programming Interface)を用いることにより取得する。
続いて、ステップS104において、状況画像生成部135は、状況情報を表す状況画像を生成する。状況画像は例えば、情報コード、テキスト画像、および図形の一部または全部を含む。情報コードは、状況情報をコード化した画像である。テキスト画像は、状況情報を表す文字列を含む画像である。図形は例えば、直線、曲線、多角形、円、楕円、矢印、またはこれらの組み合わせであってもよい。例えば、直線の傾きにより、撮影装置31の傾きが表される。また、例えば、多角形の歪みにより、撮影装置31の傾きと撮影方向とが表される。
続いて、ステップS105において、合成画像出力部137は、ステップS102で取得した最新フレームの合成領域に状況画像を含めた合成画像を出力する。すなわち、本動作例では、合成画像出力部137は、撮影装置31が撮影した撮影画像に含まれるフレームのそれぞれに、各フレームが取得された時点に対応する状況画像を含める。各フレームが取得された時点に対応する状況画像とは、各フレームの撮影に対応して取得された状況情報を表す画像である。
図2の説明に戻る。ステップS106において、合成画像出力部137は、撮影を終了するかを判定する。この判定は例えば、ボタンB11に対する操作が受け付けられたか否かを判定することにより行われる。ボタンB11に対する操作が受け付けられた場合、合成画像出力部137は撮影を終了すると判定する。一方、ボタンB11に対する操作が受け付けられていない場合、合成画像出力部137は撮影を継続すると判定する。撮影を終了する場合(ステップS106のYES)は、合成画像出力部137はステップS107へと進み、終了しない場合(ステップS106のNO)は、ステップS102へと戻り、次のフレームについての処理を継続する。
ステップS107において、合成画像出力部137は、合成画像を記憶部15に記憶する。合成画像出力部137は、記憶部15に記憶された合成画像を、所定のタイミングにおいてサーバ20に送信する。所定のタイミングとは例えば、ユーザが入力装置41を用いて合成画像の送信を指示したタイミング、所定の単位時間が経過する毎、等であってもよい。サーバ20は端末10から合成画像を受信し、記憶部25に記憶する。
上述の動作例では、撮影中に端末10の表示装置51に表示される画面として図3を例示した。撮影中に表示装置51に表示される画面の他の例について、図6および図7を参照しつつ説明する。
図6の例では、ユーザは撮影画像の撮影中に、状況画像が重畳される予定の上端の合成領域を視認できる。具体的には、フレームImg31における上端の合成領域は、画像Img32が重畳されるため視認できなくなる。そのため、ユーザは、上端の合成領域以外の領域に被写体T11が含まれるように注意しつつ撮影を行うことができる。これにより、被写体T11に状況画像が重畳されてしまい解析精度が低下することが防止される。
図7の例では、撮影画像表示部139は、フレームImg31およびボタンB11を表示するとともに、フレームImg31の上端の合成領域に状況画像Img33を重畳して表示する。この例で、状況画像Img33は、撮影装置31の傾きを示す直線を含む。これにより、ユーザは、各フレームの撮影状況(撮影時点における撮影装置31の傾き)を確認しながら撮影を行うことができる。
合成画像(図5参照)の他の例について、図面を参照しつつ説明する。上述の動作例では、合成画像出力部137は、図5に例示する合成画像を出力した。図8〜図11を用いて、他の合成画像の例について説明する。
図8は、撮影中に表示された合成領域の一部に状況画像が含まれる合成画像を例示する図である。
図9は、テキスト画像を含む状況画像が含まれる合成画像を例示する図である。図9において、合成画像であるフレームf51〜f53ではそれぞれ、撮影画像に含まれるフレームf11〜f13において撮影中に表示された上端の合成領域に、状況画像Img51〜Img53が重畳されている。図9の例では、状況画像Img51は、フレームf11の撮影に応じて取得された状況情報を文字列で表すテキスト画像を含む。状況画像Img52は、フレームf12の撮影に応じて取得された状況情報を文字列で表すテキスト画像を含む。状況画像Img53は、フレームf13の撮影に応じて取得された状況情報を文字列で表すテキスト画像を含む。
図10は、撮影状況を示す複数の図形を含む状況画像が含まれる合成画像を例示する図である。図10において、合成画像であるフレームf61〜f63ではそれぞれ、撮影画像に含まれるフレームf11〜f13(図4参照)において撮影中に表示された上端の合成領域に、状況画像Img61〜Img63が重畳されている。図10の例では、状況画像Img61は、フレームf11の撮影に応じて取得された状況情報を表す図形Img611、Img612を含む。状況画像Img62は、フレームf12の撮影に応じて取得された状況情報を表す図形Img621、Img622を含む。状況画像Img63は、フレームf13の撮影に応じて取得された状況情報を表す図形Img631、Img632を含む。図形Img611,Img621,Img631は、撮影装置31の傾きを表す直線である。図形Img612,Img622,Img632は、撮影画像における被写体T11の幅方向の位置を表す図形である。
図11は、複数の合成領域に状況画像が含まれる合成画像を例示する図である。この例では、上端の合成領域、左下の合成領域、および右下の合成領域が事前に定められている。図11において、フレームf71〜f73では、それぞれ、撮影画像に含まれるフレームf11〜f13(図4参照)における上端の合成領域に状況画像Img711〜Img713が重畳され、左下の合成領域に状況画像Img721〜Img723が重畳され、右下の合成領域に状況画像Img731〜Img733が重畳されている。状況画像Img711〜Img713は、状況情報を文字列で表すテキスト画像を含む。状況画像Img721〜Img723は、撮影装置31の傾きを表す図形を含む。状況画像Img731〜Img733は、状況情報を表す二次元コードを含む。また、状況画像Img711、Img721、Img731は、フレームf11の撮影に応じて取得された状況情報を示す。状況画像Img712、Img722、Img732は、フレームf12の撮影に応じて取得された状況情報を示す。また、状況画像Img713、Img723、Img733は、フレームf13の撮影に応じて取得された状況情報を示す。
上述の動作例では、合成画像出力部137は、事前に定められた合成領域に状況画像を含めた合成画像を生成した。合成画像出力部137は、合成領域を、撮影状況に応じて変更してもよい。
撮影状況によって、解析の際に重要となる画像領域(以下「重要領域」という)が異なる場合がある。例えば、撮影時の端末10の向きが縦向き(端末10の長手方向が垂直方向となる方向)であるか横向き(端末10の長手方向が水平方向となる方向)であるかによって、重要領域は異なる。この場合、合成画像出力部137は、センサ61が検出した端末10の向きを示す情報に基づき、状況画像の合成領域を異ならせる。
また、合成画像出力部137は、撮影中の撮影状況の変化に応じて、フレーム毎に合成領域を決定してもよい。例えば、ユーザが撮影中に端末10の向きを横向きから縦向きに変更した場合、合成画像出力部137は、状況画像を合成する位置を、上端又は下端の領域から左端又は右端の領域に変更する。
また、重要領域はサーバ20が行う解析の種類によっても異なってくる。そのため、合成画像出力部137は、サーバ20が行う解析の種類に応じて重要領域を特定し、特定した重要領域を含まないように合成領域を決定してもよい。この場合、合成画像出力部137は、重要領域の特定方法を、サーバ20が行う解析処理の種類に応じて異ならせる。例えば、サーバ20が行う解析処理が歩容解析である場合、合成画像出力部137は、撮影画像を画像解析することにより人物の領域を重要領域として特定する。また、例えば、合成画像出力部137は、サーバ20が行う解析処理が顔認識処理である場合、撮影画像を画像解析することにより顔の領域を重要領域として特定する。
また、合成画像出力部137は、合成領域を撮影状況に応じて変更するとともに、状況画像の重畳位置を示す画像を、撮影画像の事前に定められた領域に重畳してもよい。なお、状況画像の重畳位置とは、状況画像を実際に合成した合成領域の位置である。例えば、合成画像出力部137は、各フレームにおける状況画像の重畳位置を示す画像を、そのフレーム又はそのフレーム前後のフレームの事前に定められた領域に重畳してもよい。
また、合成画像出力部137は、撮影時において表示装置51に表示された合成領域と異なる位置に、状況画像を重畳してもよい。換言すると、合成画像出力部137は、表示装置51に表示した合成領域の位置を変更して状況画像を重畳してもよい。例えば、撮影時においては、撮影画像表示部139が、撮影画像に含まれる最新のフレームに事前に定められた合成領域と同じ形状の画像(図6の画像Img32、等)を重畳して表示する。ただし、合成画像出力部137は、状況画像を実際に重畳する合成領域を撮影状況に応じて変更する。合成画像出力部137は例えば、端末10の向きを示す情報や被写体の位置を示す情報に応じて実際の合成領域を変更する。この場合、撮影時においては、図6に例示した画面が表示される。一方、合成画像出力部137は、例えば図11に例示した合成画像を出力する。
次いで、撮影画像に含まれるフレームのうち状況画像を合成するフレームについて説明する。上述の動作例では、状況画像の合成処理(図2のステップS105の処理)は、撮影画像に含まれる最新のフレームを取得する度に行われていた。すなわち、フレーム毎に状況画像が合成される例について説明した。これに限らず、状況画像の合成処理が行われないフレームがあってもよい。例えば、状況画像の合成処理は、フレーム毎ではなく、2以上の所定数のフレームごとに行われてもよい。すなわち、合成画像出力部137は、動画像に含まれる複数のフレームのうち少なくとも一部のフレームに、当該フレームが撮影された時点に対応する状況画像を含めてもよい。
ここで、撮影画像が動画像である場合、状況情報は、撮影画像の撮影中に変化し得る情報と、変化し得ない情報とを含む。撮影画像の撮影中に変化し得る情報は、例えば、センサ61により検出された情報、解析情報を含む。また、撮影画像の撮影中に変化し得ない情報は例えば、端末10のハードウェア情報ソフトウェア情報を含む。
図14は、一部のフレームに状況画像が合成された撮影画像を例示する図である。図14において、フレームf81〜f86は連続したフレームである。図14の例では、フレームf81、f83、およびf85が撮影されたタイミングにおいて、状況情報取得部133が状況情報を取得する。合成画像出力部137は、フレームf81、f83、f85のそれぞれに、状況画像Img81、Img83、Img83を合成する。状況画像Img81は、フレームf81の元となるフレームの撮影に応じて取得された状況情報を表す。状況画像Img83は、フレームf83の元となるフレームの撮影に応じて取得された状況情報を表す。状況画像Img85は、フレームf85の元となるフレームの撮影に応じて取得された状況情報を表す。フレームf82、f84、f86は、撮影装置31によって撮影されたフレームであり、状況画像は合成されていない。換言すると、図14の例では、合成画像出力部137は、全てのフレームではなく、状況情報が取得されたタイミングに対応するフレームに状況画像を合成する。
図15は、複数のフレームに同一の状況画像が合成された撮影画像を例示する図である。図15において、フレームf91〜f96は連続したフレームである。フレームf91、f93、f95が撮影されたタイミングにおいて、状況情報取得部133が状況情報を取得する。合成画像出力部137は、フレームf91およびf92には、状況画像Img91を合成し、フレームf93およびf94には、状況画像Img92を合成し、フレームf95およびf96には、状況画像Img93を合成する。すなわち、図15の例では、合成画像出力部137は、同一の状況画像を、次の状況画像が生成されるまでの複数のフレームのそれぞれに合成する。
また、合成画像出力部137は、全てのフレームに状況画像を含めるのではなく、状況情報が変化したタイミングに対応するフレームに状況画像を合成してもよい。例えば、合成画像出力部137は、状況情報の示す端末10の向きが縦向きから横向きに変化したタイミング、または、状況情報が示す被写体T11の位置が変化したタイミングで、その状況情報を表す状況画像をフレームに合成してもよい。
図16は、フレームに応じて状況画像の種類を変化させた合成画像を例示する図である。状況画像の種類とは、状況画像が示す状況情報の種類に対応する。状況画像の種類としては、例えば、撮影装置31の傾きを示す第1種類、被写体T11の左右方向の位置を示す第2種類、エンコーダのコーデックの設定値を示す第3種類があるが、これらに限られない。図16において、フレームf101〜f106は連続したフレームである。図16の例では、合成画像出力部137は、第1種類〜第3種類の状況画像を、順番にフレームに合成する。合成画像出力部137は、フレームf101〜f106にそれぞれ、状況画像Img101〜106を合成する。状況画像Img101およびImg104は、第1種類の状況画像であり、撮影装置31の傾きを表す図形を含む。状況画像Img102およびImg105は、第2種類の状況画像であり、被写体T11の左右方向の位置を示す図形を含む。状況画像Img103およびImg106は、第3種類の状況画像であり、エンコーダのコーデックの設定値を表す二次元バーコードを含む。
また、撮影画像と状況画像との合成処理は、撮影中ではなく、撮影が終了した後に行われてもよい。この場合、状況情報取得部133は、撮影画像の撮影中に状況情報を取得し、取得した時点のフレームに関連付けて記憶部15に記憶しておく。その後、合成画像出力部137は、記憶部15に記憶された状況情報を表す状況画像を撮影画像の各フレームに合成する。
次いで、サーバ20の画像解析処理について詳細に説明する。端末10の記憶部15に記憶された合成画像は、上述したように、所定のタイミングにおいてサーバ20に送信される。
ステップS201において、合成画像取得部231は、端末10から合成画像を受信することにより、端末10によって出力される合成画像を取得する。サーバ20は受信した合成画像を記憶部25に記憶する。
ステップS202において、状況情報抽出部233は、合成画像に含まれるフレームから、状況画像に対応する領域の画像を抽出する。事前に合成領域が定められている場合、状況情報抽出部233は、フレームから、合成領域として事前に定められた領域の画像を抽出すればよい。また、事前に合成領域が定められていない場合、状況情報抽出部233は、フレームを解析することにより状況画像の領域を推定し、推定した領域の画像を抽出してもよい。
ステップS203において、状況情報抽出部233は、状況画像が示す状況情報を抽出する。
ステップS204〜S206において、合成画像解析部235は、状況情報を用いて合成画像を解析する処理を実行する。まず、ステップS204において、合成画像解析部235は、抽出した状況情報に応じて各フレームを補正する。なお、ステップS202で抽出された状況画像から状況情報が抽出されなかった場合、合成画像解析部235は、それ以前のフレームから抽出された状況情報を用いて、補正を行ってもよいし、当該フレームについては補正を行わなくてもよい。
ステップS205において、合成画像解析部235は、解析対象である撮影画像に含まれる全てのフレームについて処理を完了したかを判定する。全てのフレームについて処理が完了した場合(ステップS205のYES)は、合成画像解析部235はステップS206の処理へと進む。一方、次のフレームが残っている場合(ステップS205のNO)、合成画像解析部235はステップS202の処理へと戻り、次のフレームについて状況情報の抽出処理を行う。
ステップS206において、合成画像解析部235は、状況情報を用いて合成画像を補正した補正画像を用いて、合成画像の解析を行う。合成画像の解析処理は例えば、顔認識処理、歩容解析処理である。例えば、合成画像解析部235は、歩容解析処理を、状況情報に含まれる解像度に応じて選択される骨格検出モデルを用いて行う。また、例えば、合成画像解析部235は、歩容解析処理を、状況情報に含まれるフレームレートに応じたサンプリングレートを用いて行う。
図1の例では、端末10の制御部13は、撮影画像取得部131、状況情報取得部133、状況画像生成部135、合成画像出力部137、および撮影画像表示部139を含んでいたが、これらの構成要素のうちの少なくとも一部の機能がサーバ20に実装されてもよい。例えば、サーバ20が合成画像出力部137に係る機能を備えていてもよい。
端末10および/またはサーバ20の制御ブロック(特に制御部13および制御部23)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
図18は、端末10およびサーバ20として用いられるコンピュータの物理的構成を例示したブロック図である。端末10は、図18に示すように、バス110と、プロセッサ101と、主メモリ102と、補助メモリ103と、通信インタフェース104と、入出力インタフェース105とを備えたコンピュータによって構成可能である。プロセッサ101、主メモリ102、補助メモリ103、通信インタフェース104、および入出力インタフェース105は、バス110を介して互いに接続されている。入出力インタフェース105には、撮影装置31、入力装置41および表示装置51が接続されている。
サーバ20は、図10に示すように、バス210と、プロセッサ201と、主メモリ202と、補助メモリ203と、通信インタフェース204とを備えたコンピュータによって構成可能である。プロセッサ201、主メモリ202、補助メモリ203、および通信インタフェース204は、バス210を介して互いに接続されている。
上記の課題を解決するために、本発明の一態様に係る端末は、撮影装置が撮影した撮影画像を取得する撮影画像取得部と、前記撮影画像の撮影時における前記撮影装置の内部状況である撮影状況を示す情報を含む状況情報を取得する状況情報取得部と、前記状況情報を表す状況画像を生成する状況画像生成部と、前記撮影画像に前記状況画像を含めた合成画像を出力する合成画像出力部と、を含む。
10 端末
11、21 通信部
13、23 制御部
15、25 記憶部
20 サーバ
31 撮影装置
41 入力装置
51 表示装置
61 センサ
101、201 プロセッサ
102、202 主メモリ
103、203 補助メモリ
104、204 通信インタフェース
105 入出力インタフェース
110、210 バス
131 撮影画像取得部
133 状況情報取得部
135 状況画像生成部
137 合成画像出力部
139 撮影画像表示部
231 合成画像取得部
233 状況情報抽出部
235 合成画像解析部
Claims (11)
- 撮影装置が撮影した撮影画像を取得する撮影画像取得部と、
前記撮影画像の撮影時における前記撮影装置の内部状況である撮影状況を示す情報を含む状況情報を取得する状況情報取得部と、
前記状況情報を表す状況画像を生成する状況画像生成部と、
前記撮影画像に前記状況画像を含めた合成画像を、前記合成画像に含まれる状況画像が示す状況情報を抽出する状況情報抽出部と、前記状況情報を用いて前記合成画像を解析する合成画像解析部と、を含むサーバに出力する合成画像出力部と、
前記撮影装置による撮影中に前記撮影画像を表示装置に表示する撮影画像表示部と、
を備え、
前記撮影画像表示部は、前記撮影画像のうち前記状況画像が合成される合成領域を示す画像を前記撮影画像に重畳して表示し、
前記合成画像出力部は、前記撮影画像における前記合成領域に前記状況画像を含めた前記合成画像を生成する、
ことを特徴とする端末。 - 前記状況情報取得部は、前記状況情報として、前記撮影装置のハードウェア情報およびソフトウェア情報を取得する、請求項1に記載の端末。
- 前記状況情報取得部は、前記状況情報として、前記撮影時において前記撮影装置に付帯するセンサによって検出された情報を取得する、請求項1または2に記載の端末。
- 前記状況情報取得部は、前記撮影画像を解析して得られる解析情報をさらに含む前記状況情報を取得する、請求項1から3の何れか1項に記載の端末。
- 前記状況画像生成部は、前記状況画像として、情報コード、テキスト画像、および図形の一部または全部を生成する、請求項1から4の何れか1項に記載の端末。
- 前記撮影画像は、動画像であり、
前記合成画像出力部は、前記動画像に含まれる複数のフレームのうち少なくとも一部のフレームに、当該フレームが撮影された時点に対応する前記状況画像を含める、請求項1から5の何れか1項に記載の端末。 - 請求項1から6の何れか1項に記載の端末によって出力される合成画像を取得する合成画像取得部と、
前記合成画像に含まれる状況画像が示す状況情報を抽出する前記状況情報抽出部と、
前記状況情報を用いて前記合成画像を解析する前記合成画像解析部と、
を含むサーバ。 - 前記合成画像解析部は、前記状況情報を用いて前記合成画像を補正した補正画像を用いて解析を行う、請求項7に記載のサーバ。
- 請求項1から8の何れか1項に記載の端末またはサーバとしてコンピュータを機能させるためのプログラムであって、前記各部としてコンピュータを機能させるためのプログラム。
- コンピュータが実行する方法であって、
撮影装置が撮影した撮影画像を取得するステップと、
前記撮影画像の撮影時における前記撮影装置の内部状況である撮影状況を示す情報を含む状況情報を取得するステップと、
前記状況情報を表す状況画像を生成するステップと、
前記撮影画像に前記状況画像を含めた合成画像を、前記合成画像に含まれる状況画像が示す状況情報を抽出するとともに前記状況情報を用いて前記合成画像を解析するサーバに出力するステップと、
前記撮影装置による撮影中に前記撮影画像を表示装置に表示するステップと、を含み、
前記撮影画像を表示するステップにおいては、前記撮影画像のうち前記状況画像が合成される合成領域を示す画像を前記撮影画像に重畳して表示し、
前記合成画像を出力するステップにおいては、前記撮影画像における前記合成領域に前記状況画像を含めた前記合成画像を生成する、
ことを特徴とする方法。 - 前記サーバが実行する方法であって、
請求項10に記載の方法によって出力される合成画像を取得するステップと、
前記合成画像に含まれる状況画像が示す状況情報を抽出するステップと、
前記状況情報を用いて前記合成画像を解析するステップと、
を含む方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020081371A JP6895669B1 (ja) | 2020-05-01 | 2020-05-01 | 端末、サーバ、プログラムおよび方法 |
JP2021091651A JP2021176231A (ja) | 2020-05-01 | 2021-05-31 | 端末、サーバ、プログラムおよび方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020081371A JP6895669B1 (ja) | 2020-05-01 | 2020-05-01 | 端末、サーバ、プログラムおよび方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021091651A Division JP2021176231A (ja) | 2020-05-01 | 2021-05-31 | 端末、サーバ、プログラムおよび方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6895669B1 true JP6895669B1 (ja) | 2021-06-30 |
JP2021176219A JP2021176219A (ja) | 2021-11-04 |
Family
ID=76540409
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020081371A Active JP6895669B1 (ja) | 2020-05-01 | 2020-05-01 | 端末、サーバ、プログラムおよび方法 |
JP2021091651A Pending JP2021176231A (ja) | 2020-05-01 | 2021-05-31 | 端末、サーバ、プログラムおよび方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021091651A Pending JP2021176231A (ja) | 2020-05-01 | 2021-05-31 | 端末、サーバ、プログラムおよび方法 |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP6895669B1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7371712B2 (ja) * | 2021-12-28 | 2023-10-31 | 日本電気株式会社 | 撮像システム、撮像方法、及びコンピュータプログラム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3654332B2 (ja) * | 1998-07-28 | 2005-06-02 | 富士写真フイルム株式会社 | 情報埋込方法および装置並びに記録媒体 |
JP4920283B2 (ja) * | 2006-03-30 | 2012-04-18 | シャープ株式会社 | 受信装置、通信システム |
JP4749942B2 (ja) * | 2006-06-12 | 2011-08-17 | 富士通株式会社 | 画像処理プログラム、画像処理装置、画像処理方法 |
JP2008049012A (ja) * | 2006-08-28 | 2008-03-06 | Toshiba Corp | 超音波診断装置およびそれに用いるプログラム、画像表示装置 |
JP5050243B2 (ja) * | 2007-03-22 | 2012-10-17 | 株式会社北電子 | 分散型監視カメラシステム |
JP5020135B2 (ja) * | 2008-03-19 | 2012-09-05 | ソニーモバイルコミュニケーションズ, エービー | 携帯端末装置およびコンピュータプログラム |
JP2011049948A (ja) * | 2009-08-28 | 2011-03-10 | Sanyo Electric Co Ltd | 撮像装置 |
JP6171764B2 (ja) * | 2013-09-11 | 2017-08-02 | コニカミノルタ株式会社 | 画像処理システム、携帯端末、サーバー装置およびプログラム |
JP6887352B2 (ja) * | 2017-04-20 | 2021-06-16 | 三菱電機株式会社 | 監視システム |
JP6924630B2 (ja) * | 2017-06-30 | 2021-08-25 | ポーラ化成工業株式会社 | 画像撮影装置、画像撮影プログラム、画像撮影方法 |
JP2020005168A (ja) * | 2018-06-29 | 2020-01-09 | 株式会社東芝 | カメラ装置、カメラシステム及びサーバ装置 |
-
2020
- 2020-05-01 JP JP2020081371A patent/JP6895669B1/ja active Active
-
2021
- 2021-05-31 JP JP2021091651A patent/JP2021176231A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2021176231A (ja) | 2021-11-04 |
JP2021176219A (ja) | 2021-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11682105B2 (en) | Automatic image inpainting | |
US9007428B2 (en) | Motion-based image stitching | |
JP5553141B2 (ja) | 画像処理システム、画像処理装置、画像処理方法、およびプログラム | |
KR20220030263A (ko) | 텍스처 메시 빌딩 | |
US9516223B2 (en) | Motion-based image stitching | |
US20150229838A1 (en) | Photo composition and position guidance in a camera or augmented reality system | |
US11810316B2 (en) | 3D reconstruction using wide-angle imaging devices | |
KR101397712B1 (ko) | 증강 현실 객체 인식 가이드 제공 장치 및 방법 | |
CN107944420B (zh) | 人脸图像的光照处理方法和装置 | |
KR20150005270A (ko) | 전자 장치에 의해 촬영된 이미지들을 프리뷰하는 방법 및 이를 위한 전자 장치 | |
US11688136B2 (en) | 3D object model reconstruction from 2D images | |
CN108540713A (zh) | 摄像装置、图像处理装置、摄像方法及存储介质 | |
GB2598452A (en) | 3D object model reconstruction from 2D images | |
JP6895669B1 (ja) | 端末、サーバ、プログラムおよび方法 | |
CN115908120B (zh) | 图像处理方法和电子设备 | |
JP2016082469A (ja) | 撮像抽出装置 | |
KR101742779B1 (ko) | 음성인식형 입체적 디지털영상 구현시스템 | |
KR102000960B1 (ko) | 벡터를 이용한 증강 현실 영상 구현 방법 | |
CN107578006B (zh) | 一种照片处理方法及移动终端 | |
KR20210120599A (ko) | 아바타 서비스 제공 방법 및 시스템 | |
KR20210029905A (ko) | 누끼 사진 촬영과 이를 이용한 합성사진 촬영 방법 및 컴퓨터 프로그램 | |
JP2019041188A (ja) | 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム | |
EP4089641A1 (en) | Method for generating a 3d avatar, method for generating a perspective 2d image from a 3d avatar and computer program product thereof | |
CN115885316A (zh) | 身高检测方法、装置及存储介质 | |
CN117499795A (zh) | 信息处理方法以及信息处理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200618 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200618 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200908 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200923 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210511 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210531 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6895669 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |