JP2017184025A - 通信端末、画像通信システム、画像送信方法、画像表示方法、及びプログラム - Google Patents

通信端末、画像通信システム、画像送信方法、画像表示方法、及びプログラム Download PDF

Info

Publication number
JP2017184025A
JP2017184025A JP2016068644A JP2016068644A JP2017184025A JP 2017184025 A JP2017184025 A JP 2017184025A JP 2016068644 A JP2016068644 A JP 2016068644A JP 2016068644 A JP2016068644 A JP 2016068644A JP 2017184025 A JP2017184025 A JP 2017184025A
Authority
JP
Japan
Prior art keywords
image
foot
person
image data
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016068644A
Other languages
English (en)
Inventor
由登 西原
Yoshitaka Nishihara
由登 西原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016068644A priority Critical patent/JP2017184025A/ja
Priority to US15/449,528 priority patent/US10277836B2/en
Publication of JP2017184025A publication Critical patent/JP2017184025A/ja
Priority to US16/283,456 priority patent/US10827133B2/en
Pending legal-status Critical Current

Links

Images

Abstract

【課題】人物が表されている撮影画像とは別に、人物動線をヒートマップ画像により表すシステムが知られている。人物の足の位置に基づいて人物の位置を特定することができれば、ヒートマップ画像によって、奥行きを表現することができるため、閲覧者は、ヒートマップ画像から、人物の動線を把握することが容易になる。しかし、撮影画像データから足単体を検知(認識)する技術は精度が高くない。また、人物の足は床付近にあるため、障害物に隠れてしまい、足が撮影画像上に映し出されないことが少なくない。そのため、閲覧者は、ヒートマップ画像から人物の動線を把握することが困難である。【解決手段】人物の顔を含む頭部の検知から足の位置を算出することで、ヒートマップ画像が奥行きを表現することができるため、閲覧者は人物の動線を容易に把握することができるという効果を奏する。【選択図】図23

Description

本発明は、通信端末、画像通信システム、画像送信方法、画像表示方法、及びプログラムに関するものである。
近年、撮影画像データから人物を含む矩形画像を認識し、人物の動線(滞留を含む)を分析して、店舗運営、商品企画、道路の整備、防犯等に反映する事例が増えており、そのための技術として監視カメラと画像処理技術を組み合わせた監視システムが知られている(特許文献1参照)。
また、人物が表されている撮影画像とは別に、人物の動線をヒートマップ画像により表すシステムが知られている(特許文献2参照)。これに対して、人物が表されている撮影画像に、人物の動線を表すヒートマップ画像をマッピングして表示すれば、閲覧者は、ヒートマップ画像によって撮影画像が表している状況を把握し易くなる。
ところが、図24(a)に示されているように、手前側の人物と奥側の人物の重心の位置が波線で示されているように、同じ高さにある場合、人物を含む矩形画像の重心を基準に人物の位置を特定しようとすると、図24(b)に示されているように、ヒートマップ画像は、手前側の人物と奥側の人物が同じ位置として表される。そのため、閲覧者は、ヒートマップ画像から、人物の動線を把握することが困難である。
一方、人物の足の位置に基づいて人物の位置を特定することができれば、ヒートマップ画像によって、奥行きを表現することができるため、閲覧者は、ヒートマップ画像から、人物の動線を把握することが容易になる。
しかしながら、現時点では、撮影画像データから足単体を検知(認識)する技術は精度が高くない。また、人物の足は床付近にあるため、障害物に隠れてしまい、足が撮影画像上に映し出されないことが少なくない。そのため、閲覧者は、ヒートマップ画像から、人物の動線を把握することが困難であるという課題が生じる。
請求項1に係る発明は、である。
以上説明したように本発明によれば、人物の顔を含む頭部の検知から足の位置を算出することで、ヒートマップ画像が奥行きを表現することができるため、閲覧者は人物の動線を容易に把握することができるという効果を奏する。
(a)は撮影装置の左側面図であり、(b)は撮影装置の正面図であり、(c)は撮影装置の平面図である。 撮影装置の使用イメージ図である。 (a)は撮影装置で撮影された半球画像(前)、(b)は撮影装置で撮影された半球画像(後)、(c)はメルカトル図法により表された画像を示した図である。 (a)メルカトル画像で球を被う状態を示した概念図、(b)全天球パノラマ画像を示した図である。 全天球パノラマ画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。 (a)は図4の立体斜視図、(b)はディスプレイに所定領域の画像が表示された通信端末を示す図である。 所定領域情報と所定領域画像との関係を示した図である。 本発明の実施形態に係る画像通信システムの概略図である。 撮影装置のハードウェア構成図である。 通信端末3のハードウェア構成図である。 画像管理システム及び通信端末のハードウェア構成図である。 本実施形態の処理の概略を示した図である。 画像通信システムの機能ブロック図である。 人物画像管理テーブルを示す概念図である。 人物画像の位置と範囲の概念図である。 人物画像情報を作成する処理を示したフローチャートである。 全天球画像の撮影状況を示した平面図である。 全天球画像の撮影状況を示した側面図である。 頭部(顔)の直径を算出する処理を示した概念図である。描画点(第1の中心点と第2の中心点の平均中心点及び点数)を定める処理を示した概念図である。 頭部(顔)の中心から足までの距離を算出する処理を示した概念図である。 頭部(顔)の中心と水平線との角度を算出する処理を示した概念図である。 足と水平線との角度を差出する処理を示した概念図である。 (a)本実施形態の所定領域画像、(b)ヒートマップが重畳されている所定領域画像を示した図である。 (a)従来の所定領域画像、(b)ヒートマップが重畳されている所定領域画像を示した図である。
以下、図面を用いて、本発明の一実施形態について説明する。
<<実施形態の概略>>
<全天球パノラマ画像の生成方法>
図1乃至図7を用いて、全天球パノラマ画像の生成方法について説明する。
まず、図1を用いて、撮影装置1の外観を説明する。撮影装置1は、全天球(360°)パノラマ画像の元になる撮影画像を得るためのデジタルカメラである。なお、図1(a)は撮影装置の左側面図であり、図1(b)は撮影装置の正面図であり、図1(c)は撮影装置の平面図である。
図1(a)に示されているように、撮影装置1は、人間が片手で持つことができる大きさである。また、図1(a),(b),(c)に示されているように、撮影装置1の上部には、正面側(前側)に撮像素子103a及び背面側(後側)に撮像素子103bが設けられている。また、図1(b)に示されているように、撮影装置1の正面側には、シャッターボタン等の操作部115が設けられている。
次に、図2を用いて、撮影装置1の使用状況を説明する。なお、図2は、撮影装置の使用イメージ図である。撮影装置1は、図2に示されているように、ユーザが手に持ってユーザの周りの被写体を撮影するために用いられる。この場合、図1に示されている撮像素子103a及び撮像素子103bによって、それぞれユーザの周りの被写体が撮像されることで、2つの半球画像を得ることができる。
次に、図3及び図4を用いて、撮影装置1で撮影された画像から全天球パノラマ画像が作成されるまでの処理の概略を説明する。なお、図3(a)は撮影装置で撮影された半球画像(前側)、図3(b)は撮影装置で撮影された半球画像(後側)、図3(c)はメルカトル図法により表された画像(以下、「メルカトル画像」という)を示した図である。図4(a)はメルカトル画像で球を被う状態を示した概念図、図4(b)は全天球パノラマ画像を示した図である。
図3(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図3(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、撮影装置1によって合成され、図3(c)に示されているように、メルカトル画像が作成される。
そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図4(a)に示されているように、メルカトル画像が球面を覆うように貼り付けられ、図4(b)に示されているような全天球パノラマ画像が作成される。このように、全天球パノラマ画像は、メルカトル画像が球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球パノラマ画像は、静止画であっても動画であってもよい。
以上のように、全天球パノラマ画像は、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、全天球パノラマ画像の一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図5及び図6を用いて説明する。
なお、図5は、全天球パノラマ画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、3次元の立体球として表示されている全天球パノラマ画像に対して、その画像を見るユーザの視点の位置に相当するものである。また、図6(a)は図5の立体斜視図、図6(b)はディスプレイに表示された場合の所定領域画像を表す図である。また、図6(a)では、図4に示されている全天球パノラマ画像が、3次元の立体球CSで表わされている。このように生成された全天球パノラマ画像が、立体球CSであるとすると、図5に示されているように、仮想カメラICが全天球パノラマ画像の外部に位置している。全天球パノラマ画像における所定領域Tは、この全天球パノラマ画像における仮想カメラICの位置の所定領域情報によって特定される。この所定領域情報は、例えば、座標x(rH)、座標y(rV)、及び画角α(angle)によって示される。所定領域Tのズームは、画角αの範囲(円弧)を広げたり縮めたりすることで表現することができる。また、所定領域Tのズームは、仮想カメラICを全天球パノラマ画像に近づいたり、遠ざけたりすることで表現することもできる。
そして、図6(a)で示されているように、全天球パノラマ画像における所定領域Tの画像は、図6(b)に示されているように、所定のディスプレイに、所定領域画像として表示される。図6(b)に示されている画像は、初期設定(デフォルト)された所定領域情報(x,y,α)によって表された画像である。
ここで、図7を用いて、所定領域情報と所定領域画像の関係について説明する。なお、図7は、所定領域情報と所定領域画像の関係との関係を示した図である。図7に示されているように、仮想カメラICの画角αによって表される所定領域Tの対角線画角を2Lとした場合の中心点CPが、所定領域情報の(x,y)パラメータとなる。fは仮想カメラICから所定領域Tの中心点CPまでの距離である。そして、図7では、一般的に以下の式(1)で示される三角関数が成り立つ。
Lf=tan(α/2)・・・(式1)
<画像通信システムの概略>
続いて、図8を用いて、本実施形態の画像通信システムの構成の概略について説明する。図8は、本実施形態の画像通信システムの構成の概略図である。
図8に示されているように、本実施形態の画像通信システムは、撮影装置1、通信端末3、無線ルータ9a、画像管理システム5、及び通信端末7によって構成されている。
このうち、撮影装置1は、上述のように、全天球(360°)パノラマ画像を得るためのデジタルカメラである。なお、この撮影装置1は、一般的なデジタルカメラであっても良く、通信端末3にカメラが付いている場合は、通信端末3がデジタルカメラとなりうる。本実施形態では、説明を分かりやすくするために全天球パノラマ画像を得るためのデジタルカメラとして説明を行う。通信端末3は、撮影装置1への充電やデータ送受信を行なうクレードル(Cradle)の一例である。また、通信端末3は、接点を介して撮影装置1とデータ通信を行なうことができると共に、無線ルータ9a及び通信ネットワーク9を介して画像管理システム5とデータ通信を行なうことができる。なお、通信ネットワーク9は、例えば、インターネットである。
また、画像管理システム5は、例えば、サーバコンピュータであり、通信ネットワーク9を介して、通信端末3,5とデータ通信を行なうことができる。画像管理システム5には、OpenGL ESがインストールされており、全天球パノラマ画像を作成する。また、画像管理システム5は、全天球パノラマ画像の一部の画像(所定領域画像)のサムネイルデータを作成し、通信端末7にサムネイルデータ及び撮影画像データを提供する。なお、画像管理システム5は、単一のサーバコンピュータによって構成されてもよいし、複数のサーバコンピュータによって構成されてもよい。
また、通信端末7は、例えば、ノートPC(Personal Computer)であり、通信ネットワーク9を介して、画像管理システム5とデータ通信を行なうことができる。なお、通信端末7は、ノートPCだけでなく、デスクトップ型のPC等のパーソナルコンピュータであってもよく、更に、スマートフォン、タブレット型端末、又はスマートウォッチであってもよい。
更に、撮影装置1、通信端末3、及び無線ルータ9aは、衣服等の各販売拠点で設置者Xによって所定の位置に設置される。
<実施形態のハードウェア構成>
次に、図9乃至図11を用いて、本実施形態の撮影装置1、通信端末3,7、及び画像管理システム5のハードウェア構成を詳細に説明する。
まず、図9を用いて、撮影装置1のハードウェア構成を説明する。なお、図9は、撮影装置のハードウェア構成図である。以下では、撮影装置1は、2つの撮像素子を使用した全方位撮影装置とするが、撮像素子は3つ以上いくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮影ユニットを取り付けることで、実質的に撮影装置1と同じ機能を有するようにしてもよい。
図9に示されているように、撮影装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、及びアンテナ117aによって構成されている。
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とはパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図3(c)に示されているようなメルカトル画像のデータを作成する。
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮影装置によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮影装置には表示部が設けられていないが、表示部を設けてもよい。
マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
CPU111は、撮影装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みのメルカトル画像のデータを記憶する。
操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮影モードや撮影条件などを入力する。
ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶されたメルカトル画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/FとなるネットワークI/F116を介して通信端末3等の外部装置に送信されたりする。
通信部117は、撮影装置1に設けられたアンテナ117aを介して、WiFi(wireless fidelity)やNFC等の短距離無線技術によって、通信端末3等の外部装置と通信を行う。この通信部117によっても、メルカトル画像のデータを通信端末3の外部装置に送信することができる。
電子コンパス118は、地球の磁気から撮影装置1の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮影日時、及び画像データのデータ容量の各データも含まれている。
次に、図10を用いて、通信端末3のハードウェア構成を説明する。なお、図10は、無線通信機能を有したクレードルの場合の通信端末3のハードウェア構成図である。
図10に示されているように、通信端末3は、通信端末3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)303、CPU301の制御にしたがってデータの読み出し又は書き込みを行うEEPROM(Electrically Erasable and Programmable ROM)304、CPU301の制御に従って被写体を撮像し画像データを得る撮像素子としてのCMOSセンサ305を備えている。
なお、EEPROM304には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。また、CMOSセンサ305の代わりにCCDセンサを用いてもよい。
更に、通信端末3は、アンテナ313a、このアンテナ313aを利用して無線通信信号により、無線ルータ9a等と通信を行う通信部313、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって通信端末3の位置情報(緯度、経度、および高度)を含んだGPS信号を受信するGPS受信部314、及び、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン310を備えている。
図11を用いて、画像管理システム5及びノートPCの場合の通信端末7のハードウェア構成を説明する。なお、図11は、画像管理システム5及び通信端末7のハードウェア構成図である。画像管理システム5、及び通信端末7は、ともにコンピュータであるため、以下では、画像管理システム5の構成について説明し、通信端末7の構成の説明は省略する。
画像管理システム5は、画像管理システム5全体の動作を制御するCPU501、IPL等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503、画像管理システム5用のプログラム等の各種データを記憶するHD504、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508、通信ネットワーク9を利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ514、及び、上記各構成要素を図11に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。
<実施形態の処理の概略>
次に、図12を用いて、本実施形態の処理の概略について説明する。図12は、本実施形態の処理の概略を示した図である。
まず、通信端末3が撮影装置1から、撮影画像データ、所定領域情報、及び関連情報を取得する(ステップS1)。そして、通信端末3は、画像管理システム5に対して、撮影画像データ、所定領域画像、及び関連情報を送信する(ステップS2)。撮影装置1での撮像、及び通信端末3からの送信の各処理は、一定時間毎(例えば、1分おき)に行なわれる。そして、画像管理システム5は、通信端末7からの要求に応じ、通信端末7に対して、撮影画像データ、所定領域情報、及び関連情報を送信する(ステップS3)。これにより、通信端末7は、例えば、図23(a)に示されているように、撮影画像データに係る撮影画像のうち、所定領域情報で示される所定領域画像を表示することができる。
次に、画像管理システム5は、通信端末7からの要求に応じ、通信端末3から時系列に順次送られて来る複数の撮影画像データに含まれている人物の位置を算出する(ステップS4)。そして、画像管理システム5は、通信端末7に対して、一定時間に撮影されて得られた複数の撮影画像データに関する複数の撮影画像ID及び複数の足の位置情報を送信する(ステップS5)。これにより、通信端末7は、複数の足の位置情報に基づいて、ヒートマップ画像を作成し、複数の撮影画像IDの中のいずれかで示される撮影画像データに係る所定領域画像にヒートマップ画像をマッピングすることで、例えば、図23(b)に示されるような画像を表示することができる。
<<実施形態の機能構成>>
次に、図9乃至図11、及び図13を用いて、本実施形態の機能構成について説明する。図13は、本実施形態の画像通信システムの一部を構成する、撮影装置1、通信端末3、画像管理システム5、及通信端末7の各機能ブロック図である。図13では、画像管理システム5が、通信ネットワーク9を介して、通信端末3及び通信端末7とデータ通信することができる。
<撮影装置1の機能構成>
図13に示されているように、撮影装置1は、受付部12、撮像部13、集音部14、接続部18、及び記憶・読出部19を有している。これら各部は、図9に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮影蔵置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
また、撮影装置1は、図9に示されているROM112、SRAM113、及びDRAM114によって構築される記憶部1000を有している。
(撮影装置1の各機能構成)
次に、図9及び図13を用いて、撮影装置1の各機能構成について更に詳細に説明する。
撮影装置1の受付部12は、主に、図9に示されている操作部115及びCPU111の処理によって実現され、利用者(図8では、設置者X)からの操作入力を受け付ける。
撮像部13は、主に、図9に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、並びにCPU111の処理によって実現され、風景等を撮像し、撮影画像データを得る。
集音部14は、図9に示されている108及び音処理ユニット109、並びにCPU111の処理によって実現され、撮影装置1の周囲の音を収音する。
接続部18は、主に、電気接点、及びCPU111の処理によって実現され、通信端末3からの電源供給を受けると共に、データ通信を行う。
記憶・読出部19は、主に、図9に示されているCPU111の処理によって実現され、記憶部1000に各種データ(または情報)を記憶したり、記憶部1000から各種データ(または情報)を読み出したりする。
<通信端末3の機能構成>
図13に示されているように、通信端末3は、送受信部31、接続部38、及び記憶・読出部39を有している。これら各部は、図10に示されている各構成要素のいずれかが、EEPROM304からRAM303上に展開された通信端末3用プログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
また、通信端末3は、図10に示されているROM302、RAM303、及びEEPROM304によって構築される記憶部3000を有している。
(通信端末3の各機能構成)
次に、図10及び図13を用いて、通信端末3の各機能構成について更に詳細に説明する。
通信端末3の送受信部31は、主に、図10に示されている通信部313及びCPU301の処理によって実現され、無線ルータ9a及び通信ネットワーク9を介して、画像管理システム5と各種データ(または情報)の送受信を行う。
接続部38は、主に、電気接点、及びCPU301の処理によって実現され、通信端末3に電源供給すると共に、データ通信を行う。
記憶・読出部39は、主に、図10に示されているCPU301の処理によって実現され、記憶部3000に各種データ(または情報)を記憶したり、記憶部3000から各種データ(または情報)を読み出したりする。
なお、上記各プログラムが記憶されたCD−ROM等の記録媒体、並びに、これらプログラムが記憶されたHD504は、いずれもプログラム製品(Program Product)として、国内又は国外へ提供されることができる。
<画像管理システムの機能構成>
次に、図11及び図13を用いて、画像管理システム5の各機能構成について詳細に説明する。画像管理システム5は、送受信部51、検出部52、検知部53、判断部54、算出部55、及び記憶・読出部59を有している。これら各部は、図11に示されている各構成要素のいずれかが、HD504からRAM503上に展開された画像管理システム5用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。干し
また、画像管理システム5は、図11に示されているRAM503、及びHD504によって構築される記憶部5000を有している。この記憶部5000には、通信端末3から送られて来る撮影画像データが記憶される。また、記憶部5000には、人物画像管理DB5001が構築されている。人物画像管理DB5001は、後述の人物画像管理テーブルによって構成されている。以下、人物画像管理テーブルについて詳細に説明する。
(人物画像管理テーブル)
図14は、人物画像管理テーブルを示す概念図である。この人物画像管理テーブルでは、撮影画像ID毎に、撮影画像データのファイル名、撮影画像の撮影日時、顔ID、及び足の位置情報が関連付けて記憶されて管理されている。
このうち、撮影画像IDは、撮影画像データを識別するための撮影画像識別情報の一例である。撮影画像データのファイル名は、この関連付けられている撮影画像IDで示される撮影画像データのファイル名である。撮影画像の撮影日時は、この関連付けられている撮影画像データが装置IDで示される撮影装置1で撮影された日時である。撮影画像データは、記憶部5000に記憶されている。
また、顔IDは、検知部53によって、撮影画像データから検出された人物の顔を含む頭部を識別するための顔識別情報の一例である。足の位置情報は、算出部55によって算出された撮影画像データにおける足の位置を示す。この場合、足の位置は、撮影画像であるメルカトル画像(図3(c)参照)における2次元の足の位置を示す。なお、足の位置は、(x,y)=(緯度,経度)によって示してもよい。
(画像管理システムの各機能構成)
次に、図13を用いて、画像管理システム5の各機能構成について詳細に説明する。
画像管理システム5の送受信部51は、主に、図11に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して通信端末3、又は通信端末7と各種データ(または情報)の送受信を行う。
検出部52は、主に、図11に示されているCPU501の処理によって実現され、ステップS2によって受信された関連情報の方位・傾き情報から天頂方向を検出する。
検知部53は、主に、図11に示されているCPU501の処理によって実現され、撮影画像データにおいて、任意の人物の顔を含む頭部を検知する。この検出は、SVM(Support Vector Machine)の人物検出方式等により行なわれる。具体的には、検知部53は、撮影画像データにおける2次元の顔の画像の特徴量に基づいて各人物の顔を含む頭部を検知し、撮影画像データにおける位置を特定する。例えば、図15に示されているように、顔を含む頭部の画像は矩形状に検知され、矩形の中心が人物の頭部の位置(x11,y11)を示す。なお、図15では、足の位置は、(x21,y21)で示され、図14に示されている人物管理テーブルの足の位置情報として管理される。
判断部54は、主に、図11に示されているCPU501の処理によって実現され、検知部53によって、任意の人物の頭部が検知されたか否かを判断する。
算出部55は、主に、図11に示されているCPU501の処理によって実現され、検知部53によって検知された頭部の大きさ(後述の「2R」)を算出する。また、算出部55は、算出した頭部の大きさと、予め定められた平均的な人物の身体の大きさに基づき、頭部の中心と足との距離(後述の「h」)を算出する。更に、算出部55は、頭部の中心の位置から、頭部の中心と足との距離(h)ほど離れた位置を、撮影画像データにおける足の位置として算出する。この算出部55の処理に関しては、更に詳細に後述する。
記憶・読出部59は、主に、図11に示されているHDD505、及びCPU501の処理によって実現され、記憶部5000に各種データ(または情報)を記憶したり、記憶部5000から各種データ(または情報)を読み出したりする。
<通信端末7の機能構成>
次に、図11及び図13を用いて、通信端末7の機能構成について詳細に説明する。通信端末7は、送受信部71、受付部72、表示制御部73、ヒートマップ作成部74、及び、記憶・読出部79を有している。これら各部は、図11に示されている各構成要素のいずれかが、HD504からRAM503上に展開された通信端末7用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
また、通信端末7は、図11に示されているRAM503、及びHD504によって構築される記憶部7000を有している。
(通信端末7の各機能構成)
次に、図13を用いて、通信端末7の各機能構成について詳細に説明する。
通信端末7の送受信部71は、主に、図11に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して画像管理システム5と各種データ(または情報)の送受信を行う。
受付部72は、主に、図11に示されているキーボード511及びマウス512、並びにCPU501の処理によって実現され、利用者(図8では、閲覧者Y)からの操作入力を受け付ける。
表示制御部73は、主に、図11に示されているCPU501の処理によって実現され、通信端末7のディスプレイ508に各種画像を表示させるための制御を行なう。表示制御部73は、例えば、撮影画像データに関する画像(所定領域画像又は撮影画像)にヒートマップ画像をマッピングして、通信端末7のディスプレイ508に表示させる。
ヒートマップ作成部74は、主に、図11に示されているCPU501の処理によって実現され、足の位置情報に基づいて、ヒートマップ画像を作成する。具体的には、ヒートマップ作成部74は、撮影装置1によって一定時間毎に撮影されることで得られた時系列の複数の撮影画像データにおける各足の位置を、色の濃淡の重み付けに利用することで、ヒートマップ画像をレンダリングする。
記憶・読出部79は、主に、図11に示されているHDD505、及びCPU501の処理によって実現され、記憶部7000に各種データ(または情報)を記憶したり、記憶部7000から各種データ(または情報)を読み出したりする。
<<実施形態の処理又は動作>>
続いて、図16乃至図24を用いて、本実施形態の処理又は動作について説明する。図16は、人物の足の位置を特定する処理を示したフローチャートである。
まず、記憶・読出部59は、記憶部5000から、人物の顔を検知するための撮影画像データを読み出す(ステップS11)。そして、検出部52は、ステップS2によって送られて来た関連情報から天頂方向を検出する(ステップS12)。検知部53は、撮影画像データにおいて、任意の人物の顔を含む頭部を検知する(ステップS13)。判断部54は、検知部53によって、任意の人物の頭部が検知されたか否かを判断する(ステップS14)。そして、頭部が検知された場合には(YES)、算出部55は、検知された頭部の大きさ(後述の「2R」)を算出する(ステップS15)。
次に、算出部55は、算出した頭部の大きさと、予め定められた平均的な人物の身体の大きさに基づき、頭部の中心と足との距離(後述の「h」)を算出する(ステップS16)。更に、算出部55は、頭部の中心の位置から、頭部の中心と足との距離(h)ほど離れた位置を、撮影画像データにおける足の位置として算出する(ステップS17)。
次に、記憶・読出部59は、人物画像管理テーブルに対して、撮影画像ID、撮影画像データのファイル名、撮影画像の撮影日時情報、顔ID、及び足の位置情報を含む人物画像情報を記憶して管理する(ステップS18)。
次に、上記ステップS13に戻り、検知部53は、最初に検知の処理を行なった撮影画像データと同一の撮影画像データにおいて、他の人物の顔を検知する。これにより、全ての人物の顔が検知されるまで、ステップS13〜S18の処理が繰り返される。そして、上記ステップS14において、顔が検知されない場合には(NO)、全ての人物の顔が検知されたものとして、人物の足の位置を特定する処理が終了する。
ここで、図17乃至図23を用いて、ステップS15〜S17の処理を詳細に説明する。図17は、全天球画像撮影状況を示した平面図である。図18は、全天球画像撮影状況を示した側面図である。
例えば、図17及び図18では、人物900と撮影装置1の間の床2000に障害物2001があり、人物900の足904あたりは撮像されない状態になっている。この場合であっても、画像管理システム5は、現在、検知技術が高いレベルになっている顔検知(認識)技術を利用して、人物900の頭部(顔)を検知し、頭部の位置から人物900の足の位置を特定するため、障害物2001があっても、足の位置を特定することができる。なお、障害物2001がない場合であっても、顔に比べて足の検知(認識)技術は精度が高くないため、顔検知(認識)技術を利用する。
以下、更に詳細に説明する。図17及び図18において、撮影装置1の撮像素子103a(103b)を円の中心として、撮像素子103a(103b)からの水平線と、撮像素子103a(103b)から人物900の頭部(顔)の中心を通る仮想線との間の角度を「α」としている。また、撮影装置1の撮像素子103a(103b)を円の中心として、撮像素子103a(103b)から人物900の頭部の上端を通る仮想線と、撮像素子103a(103b)から人物900の頭部の下端を通る仮想線との間の角度を「β」としている。本実施形態の画像管理システム5は、撮像素子103a(103b)からの水平線と、撮像素子103a(103b)から人物900の足904を通る仮想線との間の角度「θ」を求めることで、足904の位置を特定する。
また、撮影装置1が、人物900及び障害物2001を撮影した場合、図4(a)に示されているように球の内側に表わされる全天球パノラマ画像は、頭部(顔)901の画像である頭部(顔)画像911、上肢902の上部の画像である上肢画像912、及び障害物2001の画像である障害物画像2011を表わすことになる。よって、図17及び図18に示されている状況下では、撮影装置1は、上肢902の下部、及び下肢903(足904を含む)を撮影することができない。
なお、この場合、頭部は球体に近似している。頭部の縦幅を示す角度βは、顔検知(認識)技術を使用することで、実測値として算出することができる。また、本実施形態では、実世界での大きさ及び長さではなく、画像内での相対的な大きさ及び長さに意味がある。そのため、足904の位置の特定に際しては、人物900の頭部901と撮像素子103a(103b)との距離は1(単位円)で算出される。
そして、一般的な人間の体型(頭:身長=1:n,日本人であれば7.3が平均となる)を考慮すると、θは、(式1)のように表わすことができる。
Figure 2017184025
以下に(式1)に至るまでの処理について説明する。
(1)頭部の大きさの算出(ステップS15,図19)
まず、図19において、撮像素子103a(103b)の位置を「o1」(単位円)、人物900の頭部901の中心点を「o2」、及び、o1から頭部901の上端を通る仮想線と、o2を中心点とする円の外周との接点を「A」とした場合、線(o2−A)の長さRは、(式2)によって表わされる。
Figure 2017184025

よって、頭部の大きさ(頭部の直径)2Rは、(式3)によって算することができる。
Figure 2017184025
(2)頭部の中心と足との距離の算出(ステップS16,図20)
次に、図20において、人間の身長Hは、(式4)によって表わされる。
Figure 2017184025
よって、頭部901の中心o2から足904の位置Bまでの距離h(o2−B)は、身長から頭部の長さの半分を引いて、(式5)によって算出することができる。
Figure 2017184025
・・・(式5)
(3)足の位置の特定(ステップS17,図21,図22)
次に、図21において、足の位置Bから頭部901の中心o2への延長線上で、撮像素子103a(103b)の位置o1からの水平線との交点を「C」とすると、直角三角形(o1・C・B)のうち、辺(o1−C)の長さはcos(α)で、辺(C−o2)の長さはsin(α)となる。よって、辺(C−B)の長さは、辺(o1−C)の長さと辺(C−o2)の長さを足すことにより、(式6)によって算出することができる。
Figure 2017184025
更に、図22において、撮像素子103a(103b)の位置o1からの水平線と、撮像素子103a(103b)から人物900の足904を通る仮想線との間の角度θは、arctan(辺(C−B)の長さ/辺(o1−C)の長さ)によって算出することができる。これにより、θは(式1)によって算出することができる。
以上により、図12に示すステップS5に示されているよう、算出された足の位置を示す足の位置情報は、検知元である撮影画像データの撮影画像IDと共に、通信端末7に送信される。そして、ステップS6に示されているように、通信端末7のヒートマップ作成部74がヒートマップ画像を作成し、表示制御部73は、所定領域画像にヒートマップ画像をマッピングして、通信端末7のディスプレイ508に表示させる。
図23(a)は、ヒートマップ画像がマッピングされていない所定領域画像を示し、(b)は、ヒートマップ画像がマッピングされている所定領域画像を示している。図23(b)に示されているように、ヒートマップ画像は、人物の足の軌跡を表わすことになる。よって、図24(b)に示されているように、人物の重心あたりにヒートマップ画像を付加した場合に比べて、人間の位置がわかり易くなる。
なお、図23(b)、図24(b)では、実際には、検知された頭部(足)の数に応じ、数が多い方から少ない方にかけて、赤色、オレンジ色、黄色、黄緑色、青色等で表現される。しかし、ここでは、白黒の濃淡で表現し、多い方から少ない方にかけて、濃色から淡色で表現されている。
<<本実施形態の主な効果>>
以上説明したように本実施形態によれば、撮影画像データにおいて、人物の足の位置を特定する場合、直接、足の検知(認識)を行なわず、比較的技術が進歩している顔の検知(認識)を行い、顔を含む頭部の位置から足の位置を算出する。これにより、図23(b)に示されているように、ヒートマップ画像によって、奥行きを表現することができるため、閲覧者は、ヒートマップ画像から、人物の動線を把握することが容易になるという効果を奏する。
また、店舗等のように複数の商品が展示されることで、足が障害物に隠れてしまい、足が撮影画像上に映し出されない場合であっても、本実施形態では、顔の検知から足の位置を算出しているため、ヒートマップ画像で、店舗等における人物の動線を表わすことに優れている。特に、店舗が靴店の場合、足の検知(認識)技術が進歩しても、人物の足と商品の靴を誤検知(誤認識)する可能性が高い。このような場合であっても、本実施形態では、顔の検知から足の位置を算出しているため、ヒートマップ画像で、靴店における人物の動線を表わすことに優れている。
1 撮影装置
3 通信端末
5 画像管理システム
7 通信端末
9 通信ネットワーク
51 送受信部(送信手段の一例)
52 検出部(検出部の一例)
53 検知部(検知部の一例)
54 判断部(判断手段の一例)
55 算出部(算出手段の一例)
59 記憶・読出部
71 送受信部
72 受付部
73 表示制御部(表示制御手段の一例)
74 ヒートマップ作成部(ヒートマップ作成手段の一例)
5000 記憶部
5001 人物画像管理DB(人物画像手段の一例)
7000 記憶部
特開2011−61511号公報 特開2009−134688号公報

Claims (10)

  1. 通信端末に送信する画像データを管理する画像管理システムであって、
    前記画像データから人物の顔を含む頭部を検知する検知手段と、
    前記検知手段によって人物の顔が検知された場合には、前記検知された顔を含む人物の頭部の大きさと平均的な人物の身体の大きさに基づいて、前記画像データにおける前記頭部の位置から前記人物の足の位置を算出する算出手段と、
    前記算出された前記足の位置を示す足の位置情報を、前記通信端末に送信する送信手段と、
    を有する画像管理システム。
  2. 前記算出手段は、前記画像データにおける前記頭部の上端及び下端に基づいて、前記頭部の大きさを算出する請求項1に記載の画像管理システム。
  3. 前記算出手段は、前記算出した頭部の大きさと、前記平均的な人物の身体の大きさに基づき、前記頭部の中心と足との距離を算出し、前記頭部の中心の位置から、当該頭部の中心と前記足との距離ほど離れた位置を、前記画像データにおける足の位置として算出する請求項2に記載の画像管理システム。
  4. 請求項1乃至3のいずれか一項に記載の画像管理システムであって、
    前記算出手段によって算出された前記足の位置情報と、当該足の画像を含む画像データを識別するための画像識別情報を関連付けて管理する人物画像管理手段を有し、
    前記送信手段は、前記通信端末に、前記画像データ、並びに当該画像データの画像識別情報及び当該画像識別情報に関連付けられた前記足の位置情報を送信する画像管理システム。
  5. 前記画像データは、全天球パノラマ画像データである請求項1乃至4に記載の画像管理システム。
  6. 請求項1乃至5のいずれか一項に記載の画像管理システムと、
    前記通信手段と、
    を有する画像通信システムであって、
    前記画像管理システムの送信手段は、前記通信端末に対して、時系列に撮像されて得られた複数の画像データにおける人物の足の位置を示す各足の位置情報を送信し、
    前記通信端末は、
    前記各足の位置情報に基づいて、前記人物の動線を表すヒートマップ画像を作成するヒートマップ作成手段と、
    前記各足の位置情報に関連付けられている各画像識別情報で示される各画像データのうちの特定の画像データに対して前記作成されたヒートマップ画像をマッピングして、所定の表示手段に表示させる表示制御手段と、
    を有する画像通信システム。
  7. 前記通信端末は、パーソナルコンピュータ、スマートフォン、タブレット型端末、又はスマートウォッチである請求項6に記載の画像通信システム。
  8. 通信端末に送信する画像データを管理する画像管理システムが実行する画像送信方法であって、
    前記画像管理システムは、
    前記画像データから人物の顔を含む頭部を検知する検知ステップと、
    前記検知によって人物の顔が検知された場合には、前記検知された顔を含む人物の頭部の大きさと平均的な人物の身体の大きさに基づいて、前記画像データにおける前記頭部の位置から前記人物の足の位置を算出する算出ステップと、
    前記算出された前記足の位置を示す足の位置情報を、前記通信端末に送信する送信ステップと、
    を実行する画像送信方法。
  9. 画像データを管理する画像通信システムが実行する画像表示方法であって、
    前記画像通信システムは、
    前記画像データから人物の顔を含む頭部を検知する検知ステップと、
    前記検知によって人物の顔が検知された場合には、前記検知された顔を含む人物の頭部の大きさと平均的な人物の身体の大きさに基づいて、前記画像データにおける前記頭部の位置から前記人物の足の位置を算出する算出ステップと、
    前記算出ステップによって算出された前記足の位置に基づいて、ヒートマップ画像を作成するヒートマップ作成ステップと、
    前記画像データに前記作成されたヒートマップ画像をマッピングして、所定の表示手段に表示させる表示制御ステップと、
    を実行する画像表示方法。
  10. コンピュータに、請求項8に記載の方法を実行させるプログラム。
JP2016068644A 2016-03-07 2016-03-30 通信端末、画像通信システム、画像送信方法、画像表示方法、及びプログラム Pending JP2017184025A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016068644A JP2017184025A (ja) 2016-03-30 2016-03-30 通信端末、画像通信システム、画像送信方法、画像表示方法、及びプログラム
US15/449,528 US10277836B2 (en) 2016-03-07 2017-03-03 Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product
US16/283,456 US10827133B2 (en) 2016-03-07 2019-02-22 Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016068644A JP2017184025A (ja) 2016-03-30 2016-03-30 通信端末、画像通信システム、画像送信方法、画像表示方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2017184025A true JP2017184025A (ja) 2017-10-05

Family

ID=60006462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016068644A Pending JP2017184025A (ja) 2016-03-07 2016-03-30 通信端末、画像通信システム、画像送信方法、画像表示方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2017184025A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019192020A (ja) * 2018-04-26 2019-10-31 コイト電工株式会社 人体検出装置
JP2020088571A (ja) * 2018-11-22 2020-06-04 株式会社リコー 管理システム、情報処理システム、情報処理方法およびプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256843A (ja) * 2002-02-26 2003-09-12 Oki Electric Ind Co Ltd 計測システム
JP2004094518A (ja) * 2002-08-30 2004-03-25 Oki Electric Ind Co Ltd 人物追跡装置、人物追跡方法及びプログラム
JP2004302700A (ja) * 2003-03-28 2004-10-28 Ntt Data Corp 位置判別装置、移動経路算出装置および位置・移動経路算出方法
JP2010244089A (ja) * 2009-03-31 2010-10-28 Sogo Keibi Hosho Co Ltd 人物検出装置、人物検出方法、及び人物検出プログラム
JP2015061239A (ja) * 2013-09-19 2015-03-30 キヤノン株式会社 撮像管理システム、撮像管理装置及びそれらの制御方法、プログラム
JP2015099539A (ja) * 2013-11-20 2015-05-28 パナソニックIpマネジメント株式会社 人物移動分析装置、人物移動分析システムおよび人物移動分析方法
JP5866564B1 (ja) * 2014-08-27 2016-02-17 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256843A (ja) * 2002-02-26 2003-09-12 Oki Electric Ind Co Ltd 計測システム
JP2004094518A (ja) * 2002-08-30 2004-03-25 Oki Electric Ind Co Ltd 人物追跡装置、人物追跡方法及びプログラム
JP2004302700A (ja) * 2003-03-28 2004-10-28 Ntt Data Corp 位置判別装置、移動経路算出装置および位置・移動経路算出方法
JP2010244089A (ja) * 2009-03-31 2010-10-28 Sogo Keibi Hosho Co Ltd 人物検出装置、人物検出方法、及び人物検出プログラム
JP2015061239A (ja) * 2013-09-19 2015-03-30 キヤノン株式会社 撮像管理システム、撮像管理装置及びそれらの制御方法、プログラム
JP2015099539A (ja) * 2013-11-20 2015-05-28 パナソニックIpマネジメント株式会社 人物移動分析装置、人物移動分析システムおよび人物移動分析方法
JP5866564B1 (ja) * 2014-08-27 2016-02-17 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019192020A (ja) * 2018-04-26 2019-10-31 コイト電工株式会社 人体検出装置
JP7109981B2 (ja) 2018-04-26 2022-08-01 コイト電工株式会社 人体検出装置
JP2020088571A (ja) * 2018-11-22 2020-06-04 株式会社リコー 管理システム、情報処理システム、情報処理方法およびプログラム

Similar Documents

Publication Publication Date Title
US10827133B2 (en) Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product
JP6665558B2 (ja) 画像管理システム、画像管理方法、画像通信システム及びプログラム
JP2019057903A (ja) 画像処理装置、撮影システム、画像処理方法、及びプログラム
JP2021039468A (ja) 撮影装置、通信システム、通信方法およびプログラム
JP2019057264A (ja) 画像処理装置、撮影システム、画像処理方法、及びプログラム
US11062422B2 (en) Image processing apparatus, image communication system, image processing method, and recording medium
JP2021052289A (ja) 画像処理方法、プログラム、画像処理装置および画像処理システム
JP2017212510A (ja) 画像管理装置、プログラム、画像管理システム及び情報端末
US20220264004A1 (en) Generation of an image that is devoid of a person from images that include the person
JP6720778B2 (ja) 画像管理システム、画像管理方法、及びプログラム
JP2022057800A (ja) 画像通信システム、通信管理装置、通信管理方法及びプログラム
US10147160B2 (en) Image management apparatus and system, and method for controlling display of captured image
JP2018110384A (ja) 画像処理装置、撮影システム、画像処理方法、及びプログラム
US11195295B2 (en) Control system, method of performing analysis and storage medium
JP2018139052A (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP2016194784A (ja) 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム
JP2016194783A (ja) 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム
JP6115113B2 (ja) 所定領域管理システム、所定領域管理方法、及びプログラム
JP6729043B2 (ja) 情報処理装置、および、情報処理システム
JP2017184025A (ja) 通信端末、画像通信システム、画像送信方法、画像表示方法、及びプログラム
JP6812643B2 (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP2017182681A (ja) 画像処理システム、情報処理装置、プログラム
JP2018026642A (ja) 画像管理システム、画像通信システム、画像管理方法、及びプログラム
JP6586819B2 (ja) 画像管理システム、画像通信システム、画像管理方法、及びプログラム
JP2020088571A (ja) 管理システム、情報処理システム、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200401

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200526