JP6895669B1 - 端末、サーバ、プログラムおよび方法 - Google Patents

端末、サーバ、プログラムおよび方法 Download PDF

Info

Publication number
JP6895669B1
JP6895669B1 JP2020081371A JP2020081371A JP6895669B1 JP 6895669 B1 JP6895669 B1 JP 6895669B1 JP 2020081371 A JP2020081371 A JP 2020081371A JP 2020081371 A JP2020081371 A JP 2020081371A JP 6895669 B1 JP6895669 B1 JP 6895669B1
Authority
JP
Japan
Prior art keywords
image
situation
composite
information
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020081371A
Other languages
English (en)
Other versions
JP2021176219A (ja
Inventor
裕 坂根
裕 坂根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2020081371A priority Critical patent/JP6895669B1/ja
Priority to JP2021091651A priority patent/JP2021176231A/ja
Application granted granted Critical
Publication of JP6895669B1 publication Critical patent/JP6895669B1/ja
Publication of JP2021176219A publication Critical patent/JP2021176219A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Input (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】撮影装置が撮影した撮影画像を解析する際の解析の精度を高くする。【解決手段】端末(10)は、撮影装置(31)が撮影した撮影画像を取得する撮影画像取得部(131)と、撮影画像の撮影時における撮影装置(31)の内部状況である撮影状況を示す情報を含む状況情報を取得する状況情報取得部(133)と、状況情報を表す状況画像を生成する状況画像生成部(135)と、撮影画像に状況画像を含めた合成画像を出力する合成画像出力部(137)と、を含む。【選択図】図1

Description

本発明は、撮影画像を解析する技術に関する。
撮影画像に対し顔認識や歩容解析等の解析を行う技術がある。特許文献1には、動画から人物の歩容を解析する歩容解析装置が記載されている。
特開2018−26018号公報(2018年2月15日公開)
ところで、撮影画像を解析する場合、撮影画像の撮影状況により解析の精度が大きく変化する傾向がある。そのため、特許文献1に記載の技術では、撮影画像の解析の精度を向上させる余地がある。
本発明の一態様は、撮影装置が撮影した撮影画像を解析する際の解析の精度を高くする技術を実現することを目的とする。
上記の課題を解決するために、本発明の一態様に係る端末は、撮影装置が撮影した撮影画像を取得する撮影画像取得部と、前記撮影画像の撮影時における前記撮影装置の内部状況である撮影状況を示す情報を含む状況情報を取得する状況情報取得部と、前記状況情報を表す状況画像を生成する状況画像生成部と、前記撮影画像に前記状況画像を含めた合成画像を出力する合成画像出力部と、を含む。
上記課題を解決するために、本発明の一態様に係るサーバは、上記端末によって出力される合成画像を取得する合成画像取得部と、前記合成画像に含まれる状況画像が示す状況情報を抽出する状況情報抽出部と、前記状況情報を用いて前記合成画像を解析する合成画像解析部と、を含む。
本発明の一態様によれば、撮影装置が撮影した撮影画像を解析する際の解析の精度を高くすることができる。
本発明の一実施形態に係る画像解析システム1の機能的な構成を示すブロック図である。 本発明の一実施形態に係る端末10が実行する画像合成処理の流れを示すフローチャートである。 本発明の一実施形態に係る表示装置51に表示される画面を例示する図である。 撮影画像に含まれる複数のフレームを例示する図である。 合成画像を例示する図である。 本発明の一実施形態に係る表示装置51に表示される画面を例示する図である。 本発明の一実施形態に係る表示装置51に表示される画面を例示する図である。 合成画像を例示する図である。 合成画像を例示する図である。 合成画像を例示する図である。 合成画像を例示する図である。 本発明の一実施形態に係る表示装置51に表示される画面を例示する図である。 合成画像を例示する図である。 合成画像を例示する図である。 合成画像を例示する図である。 合成画像を例示する図である。 本発明の一実施形態に係るサーバ20が実行する画像解析処理の流れを示すフローチャートである。 端末10およびサーバ20として用いられるコンピュータの物理的構成を例示したブロック図である。
以下、本発明の一実施形態に係る画像解析システム1について説明する。
<画像解析システム1の概要>
図1は、本発明の一実施形態に係る画像解析システム1の機能的な構成を示すブロック図である。図1に示すように、画像解析システム1は、端末10およびサーバ20を含んでいる。ここで、図1に示す例では、画像解析システム1が、端末10を1つ含んでいるが、これは本実施形態を限定するものではない。画像解析システム1は、端末10を複数含む構成であってもよい。
端末10とサーバ20とは、ネットワークN1を介して通信可能に接続される。端末10とサーバ20とを接続するネットワークN1は、有線LAN(Local Area Network)、無線LAN、インターネット、公衆回線網、モバイルデータ通信網、またはこれらの組み合わせである。
画像解析システム1は、一例として、介護施設の管理者により使用されることを想定している。ここで、介護施設の管理者は、被介護者を介護したり施設を管理したりする者であり、本実施形態における「ユーザ」の一例である。
端末10はユーザにより使用される。端末10には、撮影するためのアプリケーションソフトウェア(以下「撮影アプリ」という)がインストールされている。端末10は、撮影画像と状況情報とを取得し、取得した状況情報を表す状況画像を生成して、撮影画像に状況画像を含めた合成画像を出力する。
撮影画像とは、撮影装置(例えば、端末10に接続される撮影装置31)が撮影した画像である。撮影画像は、動画像または静止画像である。状況情報とは、撮影画像の撮影時における撮影状況を示す情報を含む情報である。撮影状況とは、撮影画像の解析に影響する端末10及び撮影装置の内部状況である。撮影状況は、例えば撮影装置のハードウェア、ソフトウェアの撮影時の状況であってもよい。また、撮影状況とは、撮影装置に付帯するセンサ(例えば、撮影装置31に付帯するセンサ61)によって検出される撮影時の状況であってもよい。なお、撮影状況とは、これらに限らず、撮影画像の撮影時におけるその他の内部状況であってもよい。
状況画像は、状況情報を含む画像である。なお、状況情報は、後述する解析情報をさらに含む場合がある。その場合、状況画像は、解析情報を示す解析画像を含む。解析情報は、撮影画像を解析して得られる情報であり、例えば、被写体の位置を示す情報である。
状況画像は例えば、情報コード、テキスト画像、および図形の一部または全部を含む。情報コードとは、情報をコード化したものであり、例えば、一次元コード、二次元コード等であってもよい。
サーバ20は、画像を解析する機能を備える。サーバ20は、端末10によって出力される合成画像を取得し、合成画像に含まれる状況画像が示す状況情報を抽出して、抽出した状況情報を用いて合成画像を解析する。合成画像を解析する処理は例えば、顔認識処理、または歩容解析処理である。状況情報を用いた合成画像の解析とは、例えば、状況情報を用いて合成画像を補正した補正画像を用いて合成画像を解析することをいう。また、状況情報を用いた合成画像の解析とは、例えば、状況情報に含まれる解像度に応じて選択される骨格検出モデルを用いた歩容解析、状況情報に含まれるフレームレートに応じたサンプリングレートを用いた歩容解析、である。
画像解析システム1によれば、端末10が状況情報を表す状況画像を撮影画像に含めた合成画像を生成し、サーバ20が状況情報を用いて画像解析を行う。これにより、撮影状況に応じた解析が可能となり、撮影画像の解析の精度を高くすることが可能になる。
(端末10の構成)
続いて、図1を参照して端末10の構成について説明する。図1に示すように、端末10は、通信部11と、制御部13と、記憶部15とを含む。また、端末10は、撮影装置31と、入力装置41と、表示装置51と、1または複数のセンサ61とにそれぞれ接続される。端末10は、例えば、撮影装置31、入力装置41、表示装置51、および1または複数のセンサ61と一体に構成されたノートPC(Personal Computer)、タブレット端末、デジタルカメラ、およびスマートフォン等として実現される。ただし、撮影装置31、入力装置41、表示装置51、および1または複数のセンサ61の一部又は全部は、端末10に接続される外部装置であってもよい。なお、上述した端末10の具体的態様は本実施形態を限定するものではない。
通信部11は、ネットワークN1を介してサーバ20と通信を行う。制御部13は、端末10の各部を制御する。記憶部15は、撮影装置31が撮影した撮影画像を表す画像データを記憶する。以下の説明では、撮影画像を表す画像データを、単に「撮影画像」ともいう。
入力装置41は、ユーザからの入力操作を受け付け、受け付けた入力を示す入力情報を制御部13に供給する。表示装置51は、制御部13による制御に従って画像を表示する。
一例として、入力装置41は、ユーザから、静止画の撮影指示、動画の撮影開始指示、および動画の撮影終了指示の入力を受け付ける。そして、制御部13は、当該入力が示す指示に基づき、撮影装置31が撮影した撮影画像を記憶部15に記憶する。
撮影装置31は、レンズおよびイメージセンサを有し、レンズから入射する光をイメージセンサにより受光して撮影画像を生成する。撮影装置31が撮影画像を生成することを、以降、「撮影画像を撮影する」と記載する。ここで、撮影装置31は、撮影画像として静止画像を生成してもよい。また、撮影装置31は、撮影画像として動画像を生成してもよい。この場合、撮影装置31は、静止画像を順次撮影し、複数の静止画像をそれぞれフレームとして撮影した順に配列することにより、動画像としての撮影画像を生成する。
センサ61は、撮影装置31に付帯している。センサ61は、撮影状況を示す値を検出する。撮影状況を示す値は、例えば、撮影装置31(すなわち端末10)の傾き、加速度、または周囲の明るさ、またはズーム倍率である。センサ61は、例えば、ジャイロセンサ、加速度センサ、光センサ、または距離センサ等であってもよい。
制御部13は、撮影画像取得部131と、状況情報取得部133と、状況画像生成部135と、合成画像出力部137と、撮影画像表示部139とを含む。撮影画像取得部131は、撮影装置31が撮影した撮影画像を取得する。状況情報取得部133は、撮影画像の撮影時における撮影状況を示す情報を含む状況情報を取得する。状況画像生成部135は、状況情報を表す状況画像を生成する。
合成画像出力部137は、撮影画像に状況画像を含めた合成画像を出力する。合成画像出力部137は、合成画像をサーバ20に送信することにより、合成画像を出力してもよいし、合成画像をUSB(Universal Serial Bus)メモリ等の外部記憶媒体に出力してもよい。
撮影画像表示部139は、撮影装置31による撮影中に撮影画像を表示装置51に表示する。
(サーバ20の構成)
続いて、図1を参照してサーバ20の構成について説明する。図1に示すように、サーバ20は、通信部21と、制御部23と、記憶部25とを含む。制御部23は、合成画像取得部231と、状況情報抽出部233と、合成画像解析部235とを含む。
通信部21は、ネットワークN1を介して端末10と通信を行う。制御部23は、サーバ20の各部を制御する。記憶部25は、端末10から受信される合成画像を記憶する。
合成画像取得部231は、端末10によって出力される合成画像を取得する。合成画像取得部231は、端末10から合成画像を受信することにより合成画像を取得する。なお、合成画像の取得方法はこれに限られず、例えば、合成画像取得部231は、USBメモリ等の外部記憶媒体を介して合成画像を取得してもよい。
状況情報抽出部233は、合成画像に含まれる状況画像が示す状況情報を抽出する。合成画像解析部235は、状況情報を用いて合成画像を解析する。
<端末10の画像合成処理>
以下では、本発明の一実施形態に係る端末10の画像合成処理について詳細に説明する。端末10のユーザは、入力装置41を用いて撮影アプリを起動し、撮影を開始するための操作を行う。
図2は、本発明の一実施形態に係る端末10が実行する画像合成処理(方法)の流れを示すフローチャートである。ここでは、撮影画像は、動画像であるものとして説明する。なお、一部のステップは並行して、または、順序を替えて実行してもよい。
(ステップS101)
ステップS101において、端末10の制御部13は、入力装置41を介して入力される情報に基づき、撮影を開始する。すなわち、制御部13は、撮影装置31を制御して撮影を行わせる。撮影装置31が撮影した撮影画像を表す画像データは記憶部15のバッファ領域に記憶される。記憶部15に記憶される撮影画像は、複数のフレームを含む。フレームとは、撮影画像を構成する静止画像である。
図3は、撮影画像の撮影中に表示装置51に表示される画面を例示する図である。撮影画像表示部139は、撮影装置31が撮影した撮影画像に含まれる最新のフレームImg11、および撮影を終了するためのボタンB11を表示装置51に表示する。フレームImg11は、撮影対象である被写体T11を含む。被写体T11は例えば、人物、動物、または車両であるが、これら以外のものであってもよい。特に、画像解析システム1が介護施設の管理者により使用される場合、被写体T11は被介護者であってもよい。
図4は、記憶部15に記憶される撮影画像に含まれる、連続した複数のフレームを例示する図である。図4では、フレームf11〜f13の3つのフレームを示す。フレームf11〜f13はそれぞれ被写体T11を含む。撮影中に被写体T11および端末10の一方または両方が動いたことにより、被写体T11が含まれる領域はフレームf11〜f13のそれぞれで異なっている。
(ステップS102)
図2の説明に戻る。ステップS102において、撮影画像取得部131は、撮影画像を取得する。本動作例では、撮影画像取得部131は、記憶部15に記憶された最新のフレームImg11を読み出すことにより、撮影画像を取得する。
(ステップS103)
続いて、ステップS103において、状況情報取得部133は、撮影画像の撮影時における撮影状況を示す情報を含む状況情報を取得する。状況情報は例えば、撮影状況を示す情報として、撮影装置31のハードウェア情報およびソフトウェア情報の少なくともいずれか一方を含む。ハードウェア情報は例えば、撮影装置31(または端末10)の機種、型番、または撮影装置31の性能(画角、解像度、フレームレート、等)を含む。ソフトウェア情報は例えば、端末10のOS(オペレーティングシステム)の種類、OSのバージョン、または撮影画像のエンコーダのコーデックの設定を含む。例えば、状況情報取得部133は、ハードウェア情報およびソフトウェア情報を、OSが提供するAPI(Application Programming Interface)を用いることにより取得する。
また、状況情報は例えば、撮影状況を示す情報として、撮影時において撮影装置31に付帯するセンサ61によって検出された情報を含む。センサ61によって検出された情報は例えば、撮影装置31の傾き、加速度、周囲の明るさ、またはズーム倍率を含む。例えば、状況情報取得部133は、撮影装置31の傾きおよび加速度を、加速度センサおよびジャイロセンサの一方または両方の検出値から算出する。また、例えば、状況情報取得部133は、周囲の明るさを、光量を検出する光センサの検出値から算出する。また、例えば、状況情報取得部133は、距離センサにより検出した被写体までの距離から、オートフォーカスされたズーム倍率を取得する。
また、状況情報は例えば、撮影状況を示す情報として、撮影画像の種別を示す情報を含む。種別とは例えば、撮影画像のサイズ(パノラマサイズ、スクエア、等)の種別である。例えば、状況情報取得部133は、撮影装置31の撮影時における設定情報を参照することにより、撮影画像の種別を示す情報を取得する。
また、状況情報は例えば、撮影画像を解析して得られる解析情報をさらに含む。解析情報は例えば、撮影画像において被写体T11が含まれる領域、または撮影画像の明るさを含む。例えば、状況情報取得部133は、画像解析により撮影画像の特徴点を抽出し、抽出した特徴点に基づき被写体T11の形状および位置を検出することにより、被写体T11が含まれる領域を特定する。また、例えば、状況情報取得部133は、撮影画像の明るさを、撮影画像の輝度を解析することにより特定する。
状況情報が解析情報を含む場合、状況情報取得部133は、撮影画像取得部131が取得した撮影画像を画像解析し、解析結果を示す解析情報を状況情報に含める。なお、状況情報取得部133が行う画像解析処理は、後述するサーバ20が行う画像解析処理に比べて、処理負荷の低い簡易な処理であることが望ましい。
(ステップS104)
続いて、ステップS104において、状況画像生成部135は、状況情報を表す状況画像を生成する。状況画像は例えば、情報コード、テキスト画像、および図形の一部または全部を含む。情報コードは、状況情報をコード化した画像である。テキスト画像は、状況情報を表す文字列を含む画像である。図形は例えば、直線、曲線、多角形、円、楕円、矢印、またはこれらの組み合わせであってもよい。例えば、直線の傾きにより、撮影装置31の傾きが表される。また、例えば、多角形の歪みにより、撮影装置31の傾きと撮影方向とが表される。
例えば、状況画像生成部135は、端末10のハードウェア情報およびソフトウェア情報を示す文字列を表すテキスト画像を状況画像として生成する。また、例えば、状況画像生成部135は、端末10のハードウェア情報およびソフトウェア情報を示す文字列をコード化した二次元コードを、状況画像として生成する。また、例えば、状況画像生成部135は、撮影装置31の傾きをその傾きで表す直線を、状況画像として生成する。
状況画像は、その一部または全部が不透明、半透明または透明な画像であってもよい。状況画像生成部135は、状況画像の一部または全部について透明度を設定する。また、状況画像生成部135は、状況画像を、フレームに重畳することにより合成する。状況画像の一部または全部が半透明または透明であることにより、状況画像が合成された領域(以降、合成領域と記載)においてフレームに含まれる画像をユーザが認識しやすくなる。
(ステップS105)
続いて、ステップS105において、合成画像出力部137は、ステップS102で取得した最新フレームの合成領域に状況画像を含めた合成画像を出力する。すなわち、本動作例では、合成画像出力部137は、撮影装置31が撮影した撮影画像に含まれるフレームのそれぞれに、各フレームが取得された時点に対応する状況画像を含める。各フレームが取得された時点に対応する状況画像とは、各フレームの撮影に対応して取得された状況情報を表す画像である。
図5は、合成画像を例示する図である。図において、フレームf21〜f23は、撮影画像の合成領域に状況画像を含めた合成画像である。フレームf21は、図4のフレームf11の右上の合成領域に状況画像Img21を含めた合成画像である。なお、フレームにおける上下左右は、撮影時の垂直方向に対応する方向を上下方向として規定されるものとする。状況画像Img21は、フレームf11の撮影に応じて取得された状況情報を表す。フレームf22は、図4のフレームf12の右上の領域に状況画像Img22を含めた合成画像である。状況画像Img22は、フレームf12の撮影に応じて取得された状況情報を表す。フレームf23は図4のフレームf13の図中右上の領域に状況画像Img23を含めた合成画像である。状況画像Img23は、フレームf13の撮影に応じて取得された状況情報を表す。
ここでは、状況画像を合成する合成領域の形状および位置は事前に定められている。換言すると、状況画像が合成される合成領域は、固定の領域である。例えば、図5の例では、合成領域は、事前に、撮影画像の右上の角に配置された矩形領域である。以降、図5に例示した合成領域を、「右上の合成領域」とも記載する。ただし、合成領域の形状および位置はこれに限られない。例えば、合成領域は、撮影画像の幅(すなわち、左右の長さ)と略同一の幅を有する上端(または下端)の矩形領域であってもよい。以降、このような合成領域を、「上端(または下端)の合成領域」とも記載する。また、合成領域は、撮影画像の左上(または、左下、右下等)の角に配置された矩形領域であってもよい。以降、このような合成領域を、「左上(または、左下、右下等)の合成領域」とも記載する。
また、合成領域の形状および位置は、事前に、ユーザにより設定可能であってもよい。この場合、ユーザは、入力装置41を用いて領域を指定する操作を行い、合成画像出力部137は、当該操作が示す領域を、合成領域として特定する。
(ステップS106)
図2の説明に戻る。ステップS106において、合成画像出力部137は、撮影を終了するかを判定する。この判定は例えば、ボタンB11に対する操作が受け付けられたか否かを判定することにより行われる。ボタンB11に対する操作が受け付けられた場合、合成画像出力部137は撮影を終了すると判定する。一方、ボタンB11に対する操作が受け付けられていない場合、合成画像出力部137は撮影を継続すると判定する。撮影を終了する場合(ステップS106のYES)は、合成画像出力部137はステップS107へと進み、終了しない場合(ステップS106のNO)は、ステップS102へと戻り、次のフレームについての処理を継続する。
(ステップS107)
ステップS107において、合成画像出力部137は、合成画像を記憶部15に記憶する。合成画像出力部137は、記憶部15に記憶された合成画像を、所定のタイミングにおいてサーバ20に送信する。所定のタイミングとは例えば、ユーザが入力装置41を用いて合成画像の送信を指示したタイミング、所定の単位時間が経過する毎、等であってもよい。サーバ20は端末10から合成画像を受信し、記憶部25に記憶する。
<撮影中における撮影画像の表示画面の他の例>
上述の動作例では、撮影中に端末10の表示装置51に表示される画面として図3を例示した。撮影中に表示装置51に表示される画面の他の例について、図6および図7を参照しつつ説明する。
図6および図7は、撮影中に端末10の表示装置51に表示される画面の他の例を示す図である。図6では、撮影画像表示部139は、撮影画像に含まれる最新のフレームImg31およびボタンB11を表示するとともに、フレームImg31の上端の合成領域に、当該合成領域と同じ形状の画像Img32(本発明における「合成領域を示す画像」の一例)を重畳して表示する。フレームImg31は、撮影対象である被写体T11を含む。
(撮影中に合成領域が視認できる画面例)
図6の例では、ユーザは撮影画像の撮影中に、状況画像が重畳される予定の上端の合成領域を視認できる。具体的には、フレームImg31における上端の合成領域は、画像Img32が重畳されるため視認できなくなる。そのため、ユーザは、上端の合成領域以外の領域に被写体T11が含まれるように注意しつつ撮影を行うことができる。これにより、被写体T11に状況画像が重畳されてしまい解析精度が低下することが防止される。
(撮影中に合成領域に状況画像が表示される画面例)
図7の例では、撮影画像表示部139は、フレームImg31およびボタンB11を表示するとともに、フレームImg31の上端の合成領域に状況画像Img33を重畳して表示する。この例で、状況画像Img33は、撮影装置31の傾きを示す直線を含む。これにより、ユーザは、各フレームの撮影状況(撮影時点における撮影装置31の傾き)を確認しながら撮影を行うことができる。
<合成画像の他の例>
合成画像(図5参照)の他の例について、図面を参照しつつ説明する。上述の動作例では、合成画像出力部137は、図5に例示する合成画像を出力した。図8〜図11を用いて、他の合成画像の例について説明する。
(合成領域の一部に状況画像が含まれる例)
図8は、撮影中に表示された合成領域の一部に状況画像が含まれる合成画像を例示する図である。
図8において、合成画像であるフレームf41〜f43では、それぞれ、撮影画像に含まれるフレームf11〜f13において撮影中に表示された上端の合成領域に、合成領域と同じ形状の画像Img46〜Img48が重畳されている。また、画像Img46〜Img48では、それぞれ、その一部に、状況画像Img41〜Img43が重畳されている。図8の例では、状況画像Img41は、フレームf11の撮影に応じて取得された状況情報(例えば、2次元コード)である。状況画像Img42は、フレームf12の撮影に応じて取得された状況情報(例えば、2次元コード)である。状況画像Img43は、フレームf13の撮影に応じて取得された状況情報(例えば、2次元コード)である。
(テキスト画像を含む状況画像が含まれる例)
図9は、テキスト画像を含む状況画像が含まれる合成画像を例示する図である。図9において、合成画像であるフレームf51〜f53ではそれぞれ、撮影画像に含まれるフレームf11〜f13において撮影中に表示された上端の合成領域に、状況画像Img51〜Img53が重畳されている。図9の例では、状況画像Img51は、フレームf11の撮影に応じて取得された状況情報を文字列で表すテキスト画像を含む。状況画像Img52は、フレームf12の撮影に応じて取得された状況情報を文字列で表すテキスト画像を含む。状況画像Img53は、フレームf13の撮影に応じて取得された状況情報を文字列で表すテキスト画像を含む。
(複数の図形を含む状況画像が含まれる例)
図10は、撮影状況を示す複数の図形を含む状況画像が含まれる合成画像を例示する図である。図10において、合成画像であるフレームf61〜f63ではそれぞれ、撮影画像に含まれるフレームf11〜f13(図4参照)において撮影中に表示された上端の合成領域に、状況画像Img61〜Img63が重畳されている。図10の例では、状況画像Img61は、フレームf11の撮影に応じて取得された状況情報を表す図形Img611、Img612を含む。状況画像Img62は、フレームf12の撮影に応じて取得された状況情報を表す図形Img621、Img622を含む。状況画像Img63は、フレームf13の撮影に応じて取得された状況情報を表す図形Img631、Img632を含む。図形Img611,Img621,Img631は、撮影装置31の傾きを表す直線である。図形Img612,Img622,Img632は、撮影画像における被写体T11の幅方向の位置を表す図形である。
(複数の合成領域に状況画像が含まれる例)
図11は、複数の合成領域に状況画像が含まれる合成画像を例示する図である。この例では、上端の合成領域、左下の合成領域、および右下の合成領域が事前に定められている。図11において、フレームf71〜f73では、それぞれ、撮影画像に含まれるフレームf11〜f13(図4参照)における上端の合成領域に状況画像Img711〜Img713が重畳され、左下の合成領域に状況画像Img721〜Img723が重畳され、右下の合成領域に状況画像Img731〜Img733が重畳されている。状況画像Img711〜Img713は、状況情報を文字列で表すテキスト画像を含む。状況画像Img721〜Img723は、撮影装置31の傾きを表す図形を含む。状況画像Img731〜Img733は、状況情報を表す二次元コードを含む。また、状況画像Img711、Img721、Img731は、フレームf11の撮影に応じて取得された状況情報を示す。状況画像Img712、Img722、Img732は、フレームf12の撮影に応じて取得された状況情報を示す。また、状況画像Img713、Img723、Img733は、フレームf13の撮影に応じて取得された状況情報を示す。
<状況画像を含める位置の決定方法>
上述の動作例では、合成画像出力部137は、事前に定められた合成領域に状況画像を含めた合成画像を生成した。合成画像出力部137は、合成領域を、撮影状況に応じて変更してもよい。
(端末10の向きに応じた合成領域)
撮影状況によって、解析の際に重要となる画像領域(以下「重要領域」という)が異なる場合がある。例えば、撮影時の端末10の向きが縦向き(端末10の長手方向が垂直方向となる方向)であるか横向き(端末10の長手方向が水平方向となる方向)であるかによって、重要領域は異なる。この場合、合成画像出力部137は、センサ61が検出した端末10の向きを示す情報に基づき、状況画像の合成領域を異ならせる。
例えば、端末10を縦向き(図6参照)にして、被写体T11が画面の中央に位置するようにユーザが撮影した場合、被写体T11を含む画面の中央部分の画像が解析の対象となるため、フレームにおける上端および下端は重要でない可能性が高い。この場合、合成画像出力部137は、画面の上端および下端の一方または両方を合成領域とする。
図12は、端末10を横向きにして人物である被写体T11を撮影した様子を例示した図である。図12の例において、被写体T11が画面の中央に位置するようにユーザが撮影した場合、被写体T11を含む画面の中央部分の画像が解析の対象となり、画面の左端および右端は重要でない可能性が高い。この場合、合成画像出力部137は、画面の左端および右端の一方または両方を合成領域とする。図12の例では、フレームの高さと同じ高さを有する左端の領域a101が、合成領域となっている。
(フレーム毎に変化し得る合成領域)
また、合成画像出力部137は、撮影中の撮影状況の変化に応じて、フレーム毎に合成領域を決定してもよい。例えば、ユーザが撮影中に端末10の向きを横向きから縦向きに変更した場合、合成画像出力部137は、状況画像を合成する位置を、上端又は下端の領域から左端又は右端の領域に変更する。
また、合成画像出力部137は、フレームに含まれる被写体T11の領域の変化に応じて合成領域を変更してもよい。例えば、被写体T11が撮影中に、撮影方向から見て左右方向に移動したとする。この場合、合成画像出力部137は、被写体T11が左半分に含まれるフレームでは、右端の合成領域を決定し、右半分に含まれるフレームでは、左端の合成領域を決定してもよい。
(解析の種類に応じた合成領域)
また、重要領域はサーバ20が行う解析の種類によっても異なってくる。そのため、合成画像出力部137は、サーバ20が行う解析の種類に応じて重要領域を特定し、特定した重要領域を含まないように合成領域を決定してもよい。この場合、合成画像出力部137は、重要領域の特定方法を、サーバ20が行う解析処理の種類に応じて異ならせる。例えば、サーバ20が行う解析処理が歩容解析である場合、合成画像出力部137は、撮影画像を画像解析することにより人物の領域を重要領域として特定する。また、例えば、合成画像出力部137は、サーバ20が行う解析処理が顔認識処理である場合、撮影画像を画像解析することにより顔の領域を重要領域として特定する。
例えば、サーバ20が歩容解析を行う場合、各フレームにおいて被写体T11である人物が写っている領域は解析の際に重要であるが、それ以外の領域は解析では用いられず、重要でない領域である。そのため、撮影中の被写体T11の移動に伴い、各フレームにおける重要領域は変化する。
また、例えば、画像解析として顔認識を行う場合、顔の領域は解析の際に重要であるが、それ以外の領域は重要でない領域となる。そのため、撮影中の被写体T11の顔の動きに伴い、各フレームにおける重要領域は変化する。
このように、合成画像出力部137は、解析の種類に応じて各フレームにおける重要領域を特定し、重要領域以外の領域を合成領域とする。
(状況画像の重畳位置を示す画像)
また、合成画像出力部137は、合成領域を撮影状況に応じて変更するとともに、状況画像の重畳位置を示す画像を、撮影画像の事前に定められた領域に重畳してもよい。なお、状況画像の重畳位置とは、状況画像を実際に合成した合成領域の位置である。例えば、合成画像出力部137は、各フレームにおける状況画像の重畳位置を示す画像を、そのフレーム又はそのフレーム前後のフレームの事前に定められた領域に重畳してもよい。
図13は、状況画像の重畳位置を示す画像が合成された撮影画像を例示する図である。図13において、合成画像であるフレームf111では、撮影画像に含まれるフレームf11(図4参照)における右下の領域に状況画像Img111が重畳されている。合成画像であるフレームf112では、撮影画像に含まれるフレームf12(図4参照)における左上の領域に状況画像Img112が重畳されている。合成画像であるフレームf113では、撮影画像に含まれるフレームf13(図4参照)における左下の領域に状況画像Img113が重畳されている。このように、合成画像出力部137は、撮影中の撮影状況の変化に応じて、状況画像の重畳位置を変更する。
更に、合成画像であるフレームf111〜f113ではそれぞれ、撮影画像に含まれるフレームf11〜f13(図4参照)の右上の領域に、状況画像の重畳位置を示す画像Img116〜Img118が重畳されている。画像Img116〜Img118は例えば、情報コード、テキスト画像、および図形の一部または全部を含む。画像Img116は、フレームf111の次のフレームであるフレームf112に含まれる状況画像Img112の重畳位置である「左上」を示す画像である。画像Img117は、フレームf112の次のフレームであるフレームf113に含まれる状況画像Img113の重畳位置である「左下」を示す画像である。画像Img118は、フレームf113の次のフレーム(図示せず)に含まれる状況画像の重畳位置を示す画像である。
このように、図13の例では、合成画像出力部137は、撮影画像に含まれるフレームにおける状況画像の重畳位置を示す画像を、当該フレームの前のフレームの事前に定められた領域に重畳する。なお、各フレームの状況画像の重畳位置を示す画像を重畳するフレームは、当該フレームの前のフレームに限らず、当該フレーム自体であってもよいし、当該フレームの次のフレームであってもよい。
これにより、後述するように、合成領域が可変である場合にサーバ20がより確実に状況画像を抽出することができる。
(合成領域の変更)
また、合成画像出力部137は、撮影時において表示装置51に表示された合成領域と異なる位置に、状況画像を重畳してもよい。換言すると、合成画像出力部137は、表示装置51に表示した合成領域の位置を変更して状況画像を重畳してもよい。例えば、撮影時においては、撮影画像表示部139が、撮影画像に含まれる最新のフレームに事前に定められた合成領域と同じ形状の画像(図6の画像Img32、等)を重畳して表示する。ただし、合成画像出力部137は、状況画像を実際に重畳する合成領域を撮影状況に応じて変更する。合成画像出力部137は例えば、端末10の向きを示す情報や被写体の位置を示す情報に応じて実際の合成領域を変更する。この場合、撮影時においては、図6に例示した画面が表示される。一方、合成画像出力部137は、例えば図11に例示した合成画像を出力する。
これにより、撮影時に合成領域を示してユーザの利便性を高めながらも、表示した合成領域に被写体が含まれてしまった場合に当該被写体に状況画像が重畳されてしまうことを軽減できる。
<状況画像を含めるフレームの他の例>
次いで、撮影画像に含まれるフレームのうち状況画像を合成するフレームについて説明する。上述の動作例では、状況画像の合成処理(図2のステップS105の処理)は、撮影画像に含まれる最新のフレームを取得する度に行われていた。すなわち、フレーム毎に状況画像が合成される例について説明した。これに限らず、状況画像の合成処理が行われないフレームがあってもよい。例えば、状況画像の合成処理は、フレーム毎ではなく、2以上の所定数のフレームごとに行われてもよい。すなわち、合成画像出力部137は、動画像に含まれる複数のフレームのうち少なくとも一部のフレームに、当該フレームが撮影された時点に対応する状況画像を含めてもよい。
(撮影中に変化し得る状況情報と変化しない状況情報)
ここで、撮影画像が動画像である場合、状況情報は、撮影画像の撮影中に変化し得る情報と、変化し得ない情報とを含む。撮影画像の撮影中に変化し得る情報は、例えば、センサ61により検出された情報、解析情報を含む。また、撮影画像の撮影中に変化し得ない情報は例えば、端末10のハードウェア情報ソフトウェア情報を含む。
状況情報取得部133は、撮影画像の撮影中に変化し得る状況情報を、撮影開始から終了までの間に、複数の時点で取得する。例えば、状況情報取得部133は、撮影画像の撮影中に変化し得る状況情報を、図2を用いて説明したようにフレーム毎に取得してもよいが、2以上の所定数のフレーム毎に取得してもよい。例えば、状況情報取得部133は、2フレーム毎に状況情報を取得してもよい。
一方、状況情報取得部133は、撮影画像の撮影中に変化しない状況情報を、撮影開始から終了までの間に、少なくとも1度取得すればよい。例えば、状況情報取得部133は、撮影画像の撮影中に変化し得ない情報を、撮影開始時に取得し、その後、撮影終了まで取得しなくてもよい。
(一部のフレームに状況画像が合成される例)
図14は、一部のフレームに状況画像が合成された撮影画像を例示する図である。図14において、フレームf81〜f86は連続したフレームである。図14の例では、フレームf81、f83、およびf85が撮影されたタイミングにおいて、状況情報取得部133が状況情報を取得する。合成画像出力部137は、フレームf81、f83、f85のそれぞれに、状況画像Img81、Img83、Img83を合成する。状況画像Img81は、フレームf81の元となるフレームの撮影に応じて取得された状況情報を表す。状況画像Img83は、フレームf83の元となるフレームの撮影に応じて取得された状況情報を表す。状況画像Img85は、フレームf85の元となるフレームの撮影に応じて取得された状況情報を表す。フレームf82、f84、f86は、撮影装置31によって撮影されたフレームであり、状況画像は合成されていない。換言すると、図14の例では、合成画像出力部137は、全てのフレームではなく、状況情報が取得されたタイミングに対応するフレームに状況画像を合成する。
(複数のフレームに同一の状況画像が合成される例)
図15は、複数のフレームに同一の状況画像が合成された撮影画像を例示する図である。図15において、フレームf91〜f96は連続したフレームである。フレームf91、f93、f95が撮影されたタイミングにおいて、状況情報取得部133が状況情報を取得する。合成画像出力部137は、フレームf91およびf92には、状況画像Img91を合成し、フレームf93およびf94には、状況画像Img92を合成し、フレームf95およびf96には、状況画像Img93を合成する。すなわち、図15の例では、合成画像出力部137は、同一の状況画像を、次の状況画像が生成されるまでの複数のフレームのそれぞれに合成する。
(撮影状況が変化したフレームに状況画像が合成される例)
また、合成画像出力部137は、全てのフレームに状況画像を含めるのではなく、状況情報が変化したタイミングに対応するフレームに状況画像を合成してもよい。例えば、合成画像出力部137は、状況情報の示す端末10の向きが縦向きから横向きに変化したタイミング、または、状況情報が示す被写体T11の位置が変化したタイミングで、その状況情報を表す状況画像をフレームに合成してもよい。
(フレームに応じて状況画像の種類を変化させる例)
図16は、フレームに応じて状況画像の種類を変化させた合成画像を例示する図である。状況画像の種類とは、状況画像が示す状況情報の種類に対応する。状況画像の種類としては、例えば、撮影装置31の傾きを示す第1種類、被写体T11の左右方向の位置を示す第2種類、エンコーダのコーデックの設定値を示す第3種類があるが、これらに限られない。図16において、フレームf101〜f106は連続したフレームである。図16の例では、合成画像出力部137は、第1種類〜第3種類の状況画像を、順番にフレームに合成する。合成画像出力部137は、フレームf101〜f106にそれぞれ、状況画像Img101〜106を合成する。状況画像Img101およびImg104は、第1種類の状況画像であり、撮影装置31の傾きを表す図形を含む。状況画像Img102およびImg105は、第2種類の状況画像であり、被写体T11の左右方向の位置を示す図形を含む。状況画像Img103およびImg106は、第3種類の状況画像であり、エンコーダのコーデックの設定値を表す二次元バーコードを含む。
<状況画像を合成するタイミングの他の例>
また、撮影画像と状況画像との合成処理は、撮影中ではなく、撮影が終了した後に行われてもよい。この場合、状況情報取得部133は、撮影画像の撮影中に状況情報を取得し、取得した時点のフレームに関連付けて記憶部15に記憶しておく。その後、合成画像出力部137は、記憶部15に記憶された状況情報を表す状況画像を撮影画像の各フレームに合成する。
<サーバ20の画像解析処理>
次いで、サーバ20の画像解析処理について詳細に説明する。端末10の記憶部15に記憶された合成画像は、上述したように、所定のタイミングにおいてサーバ20に送信される。
図17は、サーバ20が実行する画像解析処理(方法)の流れを示すフローチャートである。なお、一部のステップは並行して、または、順序を替えて実行してもよい。
(ステップS201)
ステップS201において、合成画像取得部231は、端末10から合成画像を受信することにより、端末10によって出力される合成画像を取得する。サーバ20は受信した合成画像を記憶部25に記憶する。
(ステップS202)
ステップS202において、状況情報抽出部233は、合成画像に含まれるフレームから、状況画像に対応する領域の画像を抽出する。事前に合成領域が定められている場合、状況情報抽出部233は、フレームから、合成領域として事前に定められた領域の画像を抽出すればよい。また、事前に合成領域が定められていない場合、状況情報抽出部233は、フレームを解析することにより状況画像の領域を推定し、推定した領域の画像を抽出してもよい。
また、状況画像の重畳位置を示す画像が事前に定められた領域に含まれている場合、状況情報抽出部233は、状況画像の重畳位置を示す画像を事前に定められた領域から抽出し、抽出した画像を解析して状況画像の重畳位置を特定する。例えば、抽出した画像にテキスト画像が含まれる場合、状況情報抽出部233は、抽出した画像に対しOCR(Optical character recognition)等の文字認識処理を行い、状況画像の重畳位置を示す情報として文字列を抽出する。抽出した画像に情報コードが含まれる場合、状況情報抽出部233は、情報コードを画像解析することにより状況画像の重畳位置を示す情報を抽出する。抽出した画像に図形が含まれる場合、状況情報抽出部233は、図形の形状等を解析することにより、状況画像の重畳位置を示す情報を抽出する。
状況情報抽出部233は、抽出した情報の示す重畳位置に対応する領域の画像を状況画像として抽出する。例えば、図13に一例を示した撮影画像の場合、状況情報抽出部233は、フレームf111の右上の画像Img116を解析して、次のフレームf112における状況画像の重畳位置である「左上」を示す情報を抽出する。これにより、状況情報抽出部233は、フレームf112の左上から状況画像Img112を抽出する。また、状況情報抽出部233は、フレームf112の右上の画像Img117を解析して、次のフレームf113における状況画像の重畳位置である「左下」を示す情報を抽出する。これにより、状況情報抽出部233は、フレームf113の左下から状況画像Img113を抽出する。
このように、合成領域が可変である場合に、端末10が状況画像の重畳位置を示す画像を合成画像の事前に定められた領域に重畳することにより、サーバ20は状況画像をより確実に抽出することができる。
(ステップS203)
ステップS203において、状況情報抽出部233は、状況画像が示す状況情報を抽出する。
例えば、状況画像にテキスト画像が含まれる場合、状況情報抽出部233は、状況画像に対しOCR等の文字認識処理を行い、状況情報として文字列を抽出する。状況情報に情報コードが含まれる場合、状況情報抽出部233は、情報コードを画像解析することにより状況情報を抽出する。状況情報に図形が含まれる場合、状況情報抽出部233は、図形の形状等を解析することにより、状況情報を抽出する。
なお、ステップS202で抽出された状況画像から状況情報が抽出されなかった場合について説明する。この場合、状況情報抽出部233は、フレームにおける他の領域を合成領域として推定し、推定した領域の画像から状況情報を抽出する処理を再度実行してもよい。また、状況情報抽出部233は、当該フレームには状況画像が含まれていないものとしてもよい。また、状況情報抽出部233は、状況情報を再度抽出する処理を上限回数まで実行しても状況情報が抽出されない場合に、当該フレームには状況画像が含まれていないものとしてもよい。
(ステップS204)
ステップS204〜S206において、合成画像解析部235は、状況情報を用いて合成画像を解析する処理を実行する。まず、ステップS204において、合成画像解析部235は、抽出した状況情報に応じて各フレームを補正する。なお、ステップS202で抽出された状況画像から状況情報が抽出されなかった場合、合成画像解析部235は、それ以前のフレームから抽出された状況情報を用いて、補正を行ってもよいし、当該フレームについては補正を行わなくてもよい。
合成画像解析部235が行う補正処理は例えば、傾き補正、輝度補正、または手ぶれ補正である。傾き補正の場合、合成画像解析部235は例えば、状況情報の示す撮影装置31の傾きを示す情報に基づき、傾きが是正されるように合成画像を回転させる処理を行う。輝度補正の場合、合成画像解析部235は例えば、状況情報の示す輝度情報に基づき、合成画像の輝度を補正する。手ぶれ補正の場合、合成画像解析部235は例えば、状況情報の示す加速度センサまたはジャイロセンサの検出値に基づき、合成画像の補正を行う。
また、補正処理は、状況情報に基づき合成画像の一部の領域を抽出する処理であってもよい。例えば、合成画像解析部235は、状況情報に含まれる被写体T11の位置情報に基づき、合成画像から被写体T11を含む領域を抽出する。
(ステップS205)
ステップS205において、合成画像解析部235は、解析対象である撮影画像に含まれる全てのフレームについて処理を完了したかを判定する。全てのフレームについて処理が完了した場合(ステップS205のYES)は、合成画像解析部235はステップS206の処理へと進む。一方、次のフレームが残っている場合(ステップS205のNO)、合成画像解析部235はステップS202の処理へと戻り、次のフレームについて状況情報の抽出処理を行う。
(ステップS206)
ステップS206において、合成画像解析部235は、状況情報を用いて合成画像を補正した補正画像を用いて、合成画像の解析を行う。合成画像の解析処理は例えば、顔認識処理、歩容解析処理である。例えば、合成画像解析部235は、歩容解析処理を、状況情報に含まれる解像度に応じて選択される骨格検出モデルを用いて行う。また、例えば、合成画像解析部235は、歩容解析処理を、状況情報に含まれるフレームレートに応じたサンプリングレートを用いて行う。
例えば、合成画像解析部235は、合成画像の解析を、機械学習による学習済モデルを用いて行う。学習済モデルは例えば、合成画像と、歩容解析結果との相関関係を機械学習させた学習済モデルである。歩容解析結果は例えば、被写体T11である対象者の健康状態を示す情報を含む。
この場合、学習済モデルは、合成画像に基づいて歩容解析結果を生成可能な任意の学習モデルであり得る。学習済モデルは例えば、CNN(Convolutional Neural Network)、RNN(Recurrent Neural Network)、LSTM(Long Short-Term Memory)、DNN(Deep Neural Network)、又はこれらの組み合わせで実現可能である。
この場合、合成画像解析部235は、合成画像を学習済モデルに入力し、学習済モデルから出力される歩容解析結果を取得することにより、歩容解析結果を推定する。学習済モデルには、合成画像がそのまま入力されてもよく、また、ステップS204で補正された合成画像(例えば、合成画像の一部の領域を抽出した画像)が入力されてもよい。また、合成画像から抽出された状況情報と合成画像とが学習済モデルに入力されてもよい。この場合、学習済モデルは、状況情報および合成画像と、歩容解析結果との相関関係を機械学習させた学習済モデルである。
なお、合成画像解析部235が行う画像解析処理は、上述した処理に限られない。合成画像解析部235は例えば、合成画像を顔画像データベースと照合することにより顔認識処理を行ってもよい。また、合成画像解析部235は例えば、CNNを用いた3次元物体認識の手法であるMMSS(Multi-model Sharable and Specific Feature Learning for RGB-D Object Recognition)を用いて画像から物体の種類を推定する処理を行ってもよい。
また、合成画像解析部235は、撮影状況に応じた学習済モデルを利用することにより、合成画像の解析処理を実行してもよい。この場合、例えば、状況情報の種別や状況情報の値の範囲に対応する複数の学習済モデルを事前に用意しておき、合成画像解析部235が、複数の学習済モデルの中から、状況情報の種別や状況情報の値に対応する学習済モデルを選択して用いてもよい。
以上説明したように本実施形態によれば、サーバ20は、状況情報が埋め込まれた合成画像から状況情報を抽出する。これにより、サーバ20は、撮影状況に応じた解析を行うことができ、解析の精度を高くすることができる。
ところで、状況情報を用いて撮影画像を解析するためには、撮影状況を示す情報を画像ファイルのヘッダーやフッター等に含めることが考えられる。しかしながら、画像の生成または再生を行うアプリケーションソフトウェアの種類によっては、画像ファイルのヘッダーに付された情報が削除されてしまい、参照できなくなってしまう場合がある。
それに対し本実施形態では、撮影状況を表す状況画像が撮影画像に埋め込まれ、ひとつのファイルとして管理される。そのため、端末10およびサーバ20は、撮影状況を示す情報が記されたファイルを画像ファイルとは別に作成したり参照したりする必要がなく、その画像ファイル単体で撮影状況を示す情報と画像データの遣り取りが可能である。
また、撮影画像の解析に学習済モデルが利用される場合、解析に適した学習済モデルの種類やパラメータの種類は、撮影状況によって異なる。本実施形態では、サーバ20が、撮影状況に応じて画像の補正を行ったり、撮影状況に応じた学習済モデルを利用したりすることにより、撮影画像の解析精度を高くすることができる。
また、本実施形態では、撮影画像に含まれるフレーム単位で状況情報を付加することができる。これにより、例えば撮影画像の一部を抽出する編集を行う場合であっても、状況情報が欠落してしまうことがなく、撮影画像の編集が容易である。
また、合成画像に埋め込まれた状況画像が半透明である場合、合成画像において状況画像が目立たないため、合成画像を視認するユーザに与える違和感を軽減することができる。
〔変形例〕
図1の例では、端末10の制御部13は、撮影画像取得部131、状況情報取得部133、状況画像生成部135、合成画像出力部137、および撮影画像表示部139を含んでいたが、これらの構成要素のうちの少なくとも一部の機能がサーバ20に実装されてもよい。例えば、サーバ20が合成画像出力部137に係る機能を備えていてもよい。
上述の動作例では、撮影画像が動画像である場合について説明したが、撮影画像は動画像に限られず、静止画像であってもよい。撮影画像が静止画像である場合、撮影画像取得部131は、撮影装置31が撮影した静止画像撮影画像として取得し、状況情報取得部133は、撮影画像の撮影時における撮影状況を示す状況情報を取得する。状況画像生成部135は、状況情報を表す状況画像を生成し、合成画像出力部137は、撮影画像に状況画像を含めた合成画像を出力する。
〔ソフトウェアまたはハードウェアによる実現例〕
端末10および/またはサーバ20の制御ブロック(特に制御部13および制御部23)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、端末10および/またはサーバ20は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
(端末10の物理的構成)
図18は、端末10およびサーバ20として用いられるコンピュータの物理的構成を例示したブロック図である。端末10は、図18に示すように、バス110と、プロセッサ101と、主メモリ102と、補助メモリ103と、通信インタフェース104と、入出力インタフェース105とを備えたコンピュータによって構成可能である。プロセッサ101、主メモリ102、補助メモリ103、通信インタフェース104、および入出力インタフェース105は、バス110を介して互いに接続されている。入出力インタフェース105には、撮影装置31、入力装置41および表示装置51が接続されている。
プロセッサ101としては、例えば、CPU(Central Processing Unit)、マイクロプロセッサ、デジタルシグナルプロセッサ、マイクロコントローラ、またはこれらの組み合わせ等が用いられる。
主メモリ102としては、例えば、半導体RAM(random access memory)等が用いられる。
補助メモリ103としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、またはこれらの組み合わせ等が用いられる。補助メモリ103には、上述したサーバ20の動作をプロセッサ101に実行させるためのプログラムが格納されている。プロセッサ101は、補助メモリ103に格納されたプログラムを主メモリ102上に展開し、展開したプログラムに含まれる各命令を実行する。
通信インタフェース104は、ネットワークN1に接続するインタフェースである。
入出力インタフェース105としては、例えば、USBインタフェース、赤外線やBluetooth(登録商標)等の近距離通信インタフェース、またはこれらの組み合わせが用いられる。
入力装置41としては、例えば、キーボード、マウス、タッチパッド、マイク、又はこれらの組み合わせ等が用いられる。表示装置51としては、例えば、ディスプレイ、プリンタ、スピーカ、又はこれらの組み合わせが用いられる。
この例で、プロセッサ101および通信インタフェース104は、制御部13および通信部11を実現するハードウェア要素の一例である。また、主メモリ102および補助メモリ103は、記憶部15を実現するハードウェア要素の一例である。
(サーバ20の物理的構成)
サーバ20は、図10に示すように、バス210と、プロセッサ201と、主メモリ202と、補助メモリ203と、通信インタフェース204とを備えたコンピュータによって構成可能である。プロセッサ201、主メモリ202、補助メモリ203、および通信インタフェース204は、バス210を介して互いに接続されている。
この例で、プロセッサ201および通信インタフェース204は、制御部23および通信部21を実現するハードウェア要素の一例である。また、主メモリ202および補助メモリ203は、記憶部25を実現するハードウェア要素の一例である。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
〔まとめ〕
上記の課題を解決するために、本発明の一態様に係る端末は、撮影装置が撮影した撮影画像を取得する撮影画像取得部と、前記撮影画像の撮影時における前記撮影装置の内部状況である撮影状況を示す情報を含む状況情報を取得する状況情報取得部と、前記状況情報を表す状況画像を生成する状況画像生成部と、前記撮影画像に前記状況画像を含めた合成画像を出力する合成画像出力部と、を含む。
上記の構成によれば、端末は、状況情報を表す状況画像を撮影画像に含めた合成画像を出力する。撮影画像の解析において合成画像から撮影装置の撮影状況を得ることができるため、これにより、撮影装置が撮影した撮影画像の解析の精度を高くすることができる。
本発明の一態様に係る端末において、前記状況情報取得部は、前記状況情報として、前記撮影装置のハードウェア情報およびソフトウェア情報を取得する、ことが好ましい。
上記の構成によれば、端末は、撮影装置のハードウェア情報およびソフトウェア情報を表す状況画像を撮影画像に含めた合成画像を出力する。この撮影画像の解析において、合成画像から撮影装置のハードウェア情報およびソフトウェア情報を得ることができるため、これにより、撮影装置が撮影した撮影画像の解析の精度を高くすることができる。
本発明の一態様に係る端末において、前記状況情報取得部は、前記状況情報として、前記撮影時において前記撮影装置に付帯するセンサによって検出された情報を取得する、ことが好ましい。
上記の構成によれば、端末は、撮影画像の撮影時において撮影装置に付帯するセンサによって検出された情報を表す状況画像を撮影画像に含めた合成画像を出力する。撮影画像の解析において、合成画像から撮影時にセンサによって検出された情報を得ることができるため、これにより、撮影装置が撮影した撮影画像の解析の精度を高くすることができる。
本発明の一態様に係る端末において、前記状況情報取得部は、前記撮影画像を解析して得られる解析情報をさらに含む前記状況情報を取得する、ことが好ましい。
上記の構成によれば、端末は、解析情報を含む状況情報を表す状況画像を撮影画像に含めた合成画像を出力する。撮影画像の解析において、合成画像から撮影画像の解析結果を得ることができるため、これにより、撮影装置が撮影した撮影画像の解析の精度を高くすることができる。
本発明の一態様に係る端末において、前記状況画像生成部は、前記状況画像として、情報コード、テキスト画像、および図形の一部または全部を生成する、ことが好ましい。
上記の構成によれば、端末は、状況情報を表す状況画像として、二次元コード、テキスト画像、および図形の一部または全部を生成する。撮影画像の解析において、合成画像に含まれる二次元コード、テキスト画像、または図形から状況情報を得ることができるため、これにより、撮影装置が撮影した撮影画像の解析の精度を高くすることができる。
本発明の一態様に係る端末において、前記撮影装置による撮影中に前記撮影画像を表示装置に表示する撮影画像表示部をさらに備え、前記撮影画像表示部は、前記撮影画像のうち前記状況画像が合成される合成領域を示す画像を前記撮影画像に重畳して表示し、前記合成画像出力部は、前記撮影画像における前記合成領域に前記状況画像を含めた前記合成画像を生成する、ことが好ましい。
上記の構成によれば、撮影装置による撮影中にユーザは状況画像が配置される合成領域を視認できるため、例えば合成領域以外の領域に被写体が含まれるように注意しながら撮影を行うことができる。これにより、被写体に状況画像が重畳されてしまい解析できなくなってしまうことが防止される。
本発明の一態様に係る端末において、前記撮影画像は、動画像であり、前記合成画像出力部は、前記動画像に含まれる複数のフレームのうち少なくとも一部のフレームに、当該フレームが撮影された時点に対応する前記状況画像を含める、ことが好ましい。
上記の構成によれば、動画像の解析において、動画像に含まれる1または複数のフレームから状況情報を得ることができる。すなわち、動画像のファイルとは別に状況情報のファイルを用意したりすることなく、撮影装置が撮影した撮影画像の解析の精度を高くすることができる。
本発明の一態様に係るサーバは、上述の端末によって出力される合成画像を取得する合成画像取得部と、前記合成画像に含まれる状況画像が示す状況情報を抽出する状況情報抽出部と、前記状況情報を用いて前記合成画像を解析する合成画像解析部と、を含む。
上記の構成によれば、端末は、状況情報を表す状況画像を撮影画像に含めた合成画像を出力し、サーバは、撮影画像の解析において合成画像から抽出される状況情報を用いて解析を行う。これにより、撮影装置が撮影した撮影画像の解析の精度を高くすることができる。
本発明の一態様に係るサーバにおいて、前記合成画像解析部は、前記状況情報を用いて前記合成画像を補正した補正画像を用いて解析を行う、ことが好ましい。
上記の構成によれば、撮影状況に適した補正を行うことができる。
上記の課題を解決するために、本発明の一態様に係るプログラムは、上述した端末またはサーバとしてコンピュータを機能させるためのプログラムであって、前記各部としてコンピュータを機能させる。
上記の構成によれば、上述した端末またはサーバと同様の効果を奏する。
上記の課題を解決するために、本発明の一態様に係る方法は、コンピュータが実行する方法であって、撮影装置が撮影した撮影画像を取得するステップと、前記撮影画像の撮影時における前記撮影装置の内部状況である撮影状況を示す情報を含む状況情報を取得するステップと、前記状況情報を表す状況画像を生成するステップと、前記撮影画像に前記状況画像を含めた合成画像を出力するステップと、を含んでいる。
上記の構成によれば、上述した端末と同様の効果を奏する。
上記の課題を解決するために、本発明の一態様に係る方法は、コンピュータが実行する方法であって、上述の方法によって出力される合成画像を取得するステップと、前記合成画像に含まれる状況画像が示す状況情報を抽出するステップと、前記状況情報を用いて前記合成画像を解析するステップと、を含んでいる。
上記の構成によれば、上述したサーバと同様の効果を奏する。
1 画像解析システム
10 端末
11、21 通信部
13、23 制御部
15、25 記憶部
20 サーバ
31 撮影装置
41 入力装置
51 表示装置
61 センサ
101、201 プロセッサ
102、202 主メモリ
103、203 補助メモリ
104、204 通信インタフェース
105 入出力インタフェース
110、210 バス
131 撮影画像取得部
133 状況情報取得部
135 状況画像生成部
137 合成画像出力部
139 撮影画像表示部
231 合成画像取得部
233 状況情報抽出部
235 合成画像解析部

Claims (11)

  1. 撮影装置が撮影した撮影画像を取得する撮影画像取得部と、
    前記撮影画像の撮影時における前記撮影装置の内部状況である撮影状況を示す情報を含む状況情報を取得する状況情報取得部と、
    前記状況情報を表す状況画像を生成する状況画像生成部と、
    前記撮影画像に前記状況画像を含めた合成画像を、前記合成画像に含まれる状況画像が示す状況情報を抽出する状況情報抽出部と、前記状況情報を用いて前記合成画像を解析する合成画像解析部と、を含むサーバに出力する合成画像出力部と、
    前記撮影装置による撮影中に前記撮影画像を表示装置に表示する撮影画像表示部と、
    を備え、
    前記撮影画像表示部は、前記撮影画像のうち前記状況画像が合成される合成領域を示す画像を前記撮影画像に重畳して表示し、
    前記合成画像出力部は、前記撮影画像における前記合成領域に前記状況画像を含めた前記合成画像を生成する、
    ことを特徴とする端末。
  2. 前記状況情報取得部は、前記状況情報として、前記撮影装置のハードウェア情報およびソフトウェア情報を取得する、請求項1に記載の端末。
  3. 前記状況情報取得部は、前記状況情報として、前記撮影時において前記撮影装置に付帯するセンサによって検出された情報を取得する、請求項1または2に記載の端末。
  4. 前記状況情報取得部は、前記撮影画像を解析して得られる解析情報をさらに含む前記状況情報を取得する、請求項1から3の何れか1項に記載の端末。
  5. 前記状況画像生成部は、前記状況画像として、情報コード、テキスト画像、および図形の一部または全部を生成する、請求項1から4の何れか1項に記載の端末。
  6. 前記撮影画像は、動画像であり、
    前記合成画像出力部は、前記動画像に含まれる複数のフレームのうち少なくとも一部のフレームに、当該フレームが撮影された時点に対応する前記状況画像を含める、請求項1からの何れか1項に記載の端末。
  7. 請求項1からの何れか1項に記載の端末によって出力される合成画像を取得する合成画像取得部と、
    前記合成画像に含まれる状況画像が示す状況情報を抽出する前記状況情報抽出部と、
    前記状況情報を用いて前記合成画像を解析する前記合成画像解析部と、
    を含むサーバ。
  8. 前記合成画像解析部は、前記状況情報を用いて前記合成画像を補正した補正画像を用いて解析を行う、請求項に記載のサーバ。
  9. 請求項1からの何れか1項に記載の端末またはサーバとしてコンピュータを機能させるためのプログラムであって、前記各部としてコンピュータを機能させるためのプログラム。
  10. コンピュータが実行する方法であって、
    撮影装置が撮影した撮影画像を取得するステップと、
    前記撮影画像の撮影時における前記撮影装置の内部状況である撮影状況を示す情報を含む状況情報を取得するステップと、
    前記状況情報を表す状況画像を生成するステップと、
    前記撮影画像に前記状況画像を含めた合成画像を、前記合成画像に含まれる状況画像が示す状況情報を抽出するとともに前記状況情報を用いて前記合成画像を解析するサーバに出力するステップと、
    前記撮影装置による撮影中に前記撮影画像を表示装置に表示するステップと、を含み、
    前記撮影画像を表示するステップにおいては、前記撮影画像のうち前記状況画像が合成される合成領域を示す画像を前記撮影画像に重畳して表示し、
    前記合成画像を出力するステップにおいては、前記撮影画像における前記合成領域に前記状況画像を含めた前記合成画像を生成する、
    ことを特徴とする方法。
  11. 前記サーバが実行する方法であって、
    請求項10に記載の方法によって出力される合成画像を取得するステップと、
    前記合成画像に含まれる状況画像が示す状況情報を抽出するステップと、
    前記状況情報を用いて前記合成画像を解析するステップと、
    を含む方法。
JP2020081371A 2020-05-01 2020-05-01 端末、サーバ、プログラムおよび方法 Active JP6895669B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020081371A JP6895669B1 (ja) 2020-05-01 2020-05-01 端末、サーバ、プログラムおよび方法
JP2021091651A JP2021176231A (ja) 2020-05-01 2021-05-31 端末、サーバ、プログラムおよび方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020081371A JP6895669B1 (ja) 2020-05-01 2020-05-01 端末、サーバ、プログラムおよび方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021091651A Division JP2021176231A (ja) 2020-05-01 2021-05-31 端末、サーバ、プログラムおよび方法

Publications (2)

Publication Number Publication Date
JP6895669B1 true JP6895669B1 (ja) 2021-06-30
JP2021176219A JP2021176219A (ja) 2021-11-04

Family

ID=76540409

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020081371A Active JP6895669B1 (ja) 2020-05-01 2020-05-01 端末、サーバ、プログラムおよび方法
JP2021091651A Pending JP2021176231A (ja) 2020-05-01 2021-05-31 端末、サーバ、プログラムおよび方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021091651A Pending JP2021176231A (ja) 2020-05-01 2021-05-31 端末、サーバ、プログラムおよび方法

Country Status (1)

Country Link
JP (2) JP6895669B1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7371712B2 (ja) * 2021-12-28 2023-10-31 日本電気株式会社 撮像システム、撮像方法、及びコンピュータプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3654332B2 (ja) * 1998-07-28 2005-06-02 富士写真フイルム株式会社 情報埋込方法および装置並びに記録媒体
JP4920283B2 (ja) * 2006-03-30 2012-04-18 シャープ株式会社 受信装置、通信システム
JP4749942B2 (ja) * 2006-06-12 2011-08-17 富士通株式会社 画像処理プログラム、画像処理装置、画像処理方法
JP2008049012A (ja) * 2006-08-28 2008-03-06 Toshiba Corp 超音波診断装置およびそれに用いるプログラム、画像表示装置
JP5050243B2 (ja) * 2007-03-22 2012-10-17 株式会社北電子 分散型監視カメラシステム
JP5020135B2 (ja) * 2008-03-19 2012-09-05 ソニーモバイルコミュニケーションズ, エービー 携帯端末装置およびコンピュータプログラム
JP2011049948A (ja) * 2009-08-28 2011-03-10 Sanyo Electric Co Ltd 撮像装置
JP6171764B2 (ja) * 2013-09-11 2017-08-02 コニカミノルタ株式会社 画像処理システム、携帯端末、サーバー装置およびプログラム
JP6887352B2 (ja) * 2017-04-20 2021-06-16 三菱電機株式会社 監視システム
JP6924630B2 (ja) * 2017-06-30 2021-08-25 ポーラ化成工業株式会社 画像撮影装置、画像撮影プログラム、画像撮影方法
JP2020005168A (ja) * 2018-06-29 2020-01-09 株式会社東芝 カメラ装置、カメラシステム及びサーバ装置

Also Published As

Publication number Publication date
JP2021176231A (ja) 2021-11-04
JP2021176219A (ja) 2021-11-04

Similar Documents

Publication Publication Date Title
US11682105B2 (en) Automatic image inpainting
US9007428B2 (en) Motion-based image stitching
JP5553141B2 (ja) 画像処理システム、画像処理装置、画像処理方法、およびプログラム
KR20220030263A (ko) 텍스처 메시 빌딩
US9516223B2 (en) Motion-based image stitching
US20150229838A1 (en) Photo composition and position guidance in a camera or augmented reality system
US11810316B2 (en) 3D reconstruction using wide-angle imaging devices
KR101397712B1 (ko) 증강 현실 객체 인식 가이드 제공 장치 및 방법
CN107944420B (zh) 人脸图像的光照处理方法和装置
KR20150005270A (ko) 전자 장치에 의해 촬영된 이미지들을 프리뷰하는 방법 및 이를 위한 전자 장치
US11688136B2 (en) 3D object model reconstruction from 2D images
CN108540713A (zh) 摄像装置、图像处理装置、摄像方法及存储介质
GB2598452A (en) 3D object model reconstruction from 2D images
JP6895669B1 (ja) 端末、サーバ、プログラムおよび方法
CN115908120B (zh) 图像处理方法和电子设备
JP2016082469A (ja) 撮像抽出装置
KR101742779B1 (ko) 음성인식형 입체적 디지털영상 구현시스템
KR102000960B1 (ko) 벡터를 이용한 증강 현실 영상 구현 방법
CN107578006B (zh) 一种照片处理方法及移动终端
KR20210120599A (ko) 아바타 서비스 제공 방법 및 시스템
KR20210029905A (ko) 누끼 사진 촬영과 이를 이용한 합성사진 촬영 방법 및 컴퓨터 프로그램
JP2019041188A (ja) 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
EP4089641A1 (en) Method for generating a 3d avatar, method for generating a perspective 2d image from a 3d avatar and computer program product thereof
CN115885316A (zh) 身高检测方法、装置及存储介质
CN117499795A (zh) 信息处理方法以及信息处理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200618

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200618

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210531

R150 Certificate of patent or registration of utility model

Ref document number: 6895669

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150