JP2018082234A - 画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器 - Google Patents

画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器 Download PDF

Info

Publication number
JP2018082234A
JP2018082234A JP2016221355A JP2016221355A JP2018082234A JP 2018082234 A JP2018082234 A JP 2018082234A JP 2016221355 A JP2016221355 A JP 2016221355A JP 2016221355 A JP2016221355 A JP 2016221355A JP 2018082234 A JP2018082234 A JP 2018082234A
Authority
JP
Japan
Prior art keywords
image
data
computer
background
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016221355A
Other languages
English (en)
Other versions
JP2018082234A5 (ja
JP6699518B2 (ja
Inventor
皓正 高塚
Hiromasa Takatsuka
皓正 高塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2016221355A priority Critical patent/JP6699518B2/ja
Priority to PCT/JP2017/033626 priority patent/WO2018088035A1/ja
Publication of JP2018082234A publication Critical patent/JP2018082234A/ja
Publication of JP2018082234A5 publication Critical patent/JP2018082234A5/ja
Application granted granted Critical
Publication of JP6699518B2 publication Critical patent/JP6699518B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/10Adaptations for transmission by electrical cable
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】撮像された画像から、プライバシーを保護すべき対象物の検出に失敗した場合であっても、該検出に失敗した対象物が開示されることのない画像を生成することができる画像認識処理方法を提供すること。【解決手段】少なくとも1つの撮像部で撮像された画像を少なくとも1つのコンピュータで処理する画像認識処理方法であって、少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データと、対象物が含まれていない背景画像が記憶された背景画像記憶部から読み出した背景画像とを用い、背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップS14を含む。【選択図】図6

Description

本発明は画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器に関し、より詳細には、プライバシーに配慮した画像認識処理を行う画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供プログラム、記録媒体、プロセッサ、及び電子機器に関する。
近年、各種センサで検出されたデータを収集し、収集したデータを活用して新しい情報を抽出し、付加価値のあるサービスを新たに提供するセンサーデータ流通市場の開拓が検討されている。
例えば、監視カメラを用いるカメラシステムでは、システム運用元(データ提供元)から画像データの提供を受ける第3者(データ利用先)が、提供された画像データを利用した新たなアプリケーションによるサービスを提供する検討も進められている。
監視カメラで撮像された画像には、人や車両などが映り込み、個人を特定可能なプライバシー情報が含まれている場合が多く、そのためこのような画像データの流通を促進させる場合、プライバシー情報の保護に配慮したデータ流通の仕組みを構築する必要がある。
従来よりカメラで撮像された画像中における特定の対象物のプライバシーを保護する技術が種々提案されている。例えば、下記の特許文献1には、撮影された画像中におけるプライバシー保護の必要な保護領域(顔領域)を検出し、撮影された画像(実画像)上の前記保護領域にぼかし処理、モザイク処理又は塗りつぶし処理等の画像処理を施した保護画像を生成して出力するシステムが開示されている。
[発明が解決しようとする課題]
しかしながら、特許文献1記載の技術では、前記保護領域の検出に失敗した場合、例えば、鏡や窓ガラスなどに写された保護対象を検出できなかった場合、これらの検出に失敗した保護領域に対してぼかし処理等の画像処理は行われずに、撮影された画像がそのまま出力される。そのため、出力された画像は、本来保護するべき領域(検出に失敗した保護領域)が画像処理されていない状態となっており、このような保護領域が画像処理されていない画像データを第3者に提供した場合、保護対象のプライバシーを適切に保護することができないという課題があった。
また、このような課題を排除するために、撮影された画像全体にぼかし処理等を行う方法も考えられるが、画像全体にぼかし処理等を行った場合、背景に存在する物(構造物や展示・陳列物など)の情報も除去されるため、保護対象と背景に存在する物との関係が把握しにくくなり、第3者が画像データを活用する利点が少なくなるという課題があった。
特開2006−217161号公報
課題を解決するための手段及びその効果
本発明は上記課題に鑑みなされたものであって、取得した画像からプライバシーを保護すべき対象物の検出に失敗した場合であっても、該検出に失敗した対象物が開示されることのない画像を生成することができる画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器を提供することを目的としている。
上記目的を達成するために本発明に係る画像認識処理方法(1)は、少なくとも1つの撮像部で撮像された画像を少なくとも1つのコンピュータで処理する画像認識処理方法であって、前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップを含んでいることを特徴としている。
上記画像認識処理方法(1)によれば、前記撮像された画像から検出された前記対象物の位置データと、前記背景画像とを用い、該背景画像に前記対象物の模型が描画された合成画像を生成する。したがって、前記撮像された画像から位置が検出された前記対象物は前記模型として前記背景画像に描画されるので、前記検出された対象物のプライバシー情報を含まない合成画像を生成することができる。また、前記背景画像に前記対象物の模型を描画するので、撮像された画像毎にモザイク処理等を行う方法と比較して、前記合成画像を連続的に生成する際の前記コンピュータにかかる処理負荷を削減することができる。また、前記撮像された画像から前記対象物の検出に失敗したとしても、前記背景画像を用いるため、前記合成画像には、前記検出に失敗した対象物が含まれることがなく、検出に失敗した対象物のプライバシーも適切に保護することができ、前記対象物のプライバシー情報が流出しないようにチェックするための複雑な処理が不要となり、簡素化された画像認識処理を実現できる。
なお、前記対象物の模型とは、前記撮像された画像に存在する前記対象物を、前記プライバシー情報を含まない形態で模した表示物であり、コンピュータによって前記背景画像上に前記対象物の代替物として描画される表示物である。
また、本発明に係る画像認識処理方法(2)は、少なくとも1つの撮像部で撮像された画像を少なくとも1つのコンピュータで処理する画像認識処理方法であって、前記少なくとも1つの撮像部で撮像された画像からプライバシー情報を含む対象物の位置を検出する処理を行うステップと、検出された前記対象物の位置データと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを含んでいることを特徴としている。
上記画像認識処理方法(2)によれば、上記画像認識処理方法(1)と同様の効果を得ることができるとともに、前記対象物の位置を検出する処理を行うステップと、前記合成画像を生成するステップとを連続的に実行することができ、前記コンピュータの処理効率を高めることができる。
また本発明に係る画像認識処理方法(3)は、上記画像認識処理方法(1)又は(2)において、前記背景画像が、前記撮像された画像の撮像範囲に対応したものであることを特徴としている。
上記画像認識処理方法(3)によれば、前記撮像された画像の撮像範囲に対応した画像を前記合成画像として生成することができ、背景の再現性を高めることができる。
また本発明に係る画像認識処理方法(4)は、上記画像認識処理方法(1)〜(3)のいずれかにおいて、前記合成画像は、前記背景画像に前記対象物の模型が、前記撮像された画像における前記対象物の位置状態が再現されるように描画されたものであることを特徴としている。
上記画像認識処理方法(4)によれば、前記画像における前記対象物の位置状態を再現するように前記模型が描画された前記合成画像を生成することができ、前記対象物の位置や姿勢などの状態の再現性を高めることができる。
また本発明に係る画像認識処理方法(5)は、上記画像認識処理方法(1)〜(4)のいずれかにおいて、前記背景画像が、3次元背景データから生成されたものであることを特徴としている。
上記画像認識処理方法(5)によれば、前記背景画像が、3次元背景データから生成されたものであるので、前記撮像された画像の背景部分の再現性を高めることができ、前記撮像された画像と比較しても違和感の少ない前記合成画像を生成することができる。
また本発明に係る画像認識処理方法(6)は、上記画像認識処理方法(1)〜(4)のいずれかにおいて、前記背景画像が、前記撮像された複数の画像を平均処理して得られた平均画像から生成されたものであることを特徴としている。
上記画像認識処理方法(6)によれば、前記背景画像が、前記平均画像から生成されたものであるので、前記撮像された画像の背景が忠実に再現された背景画像を用いて前記合成画像を生成することができる。
また本発明に係る画像認識処理方法(7)は、上記画像認識処理方法(1)〜(6)のいずれかにおいて、前記対象物の位置データが、前記撮像された画像から検出された前記対象物の3次元位置データから復元された、前記撮像された画像上における2次元位置データであることを特徴としている。
上記画像認識処理方法(7)によれば、1つの前記対象物の位置検出を複数の前記撮像部で撮像された画像を用いて3次元的に行う場合であっても、前記3次元位置データから復元された前記2次元位置データを用いることで、前記背景画像上、すなわち2次元画像上で前記対象物の模型が描画される位置精度が高い合成画像を生成することができる。
また本発明に係る画像認識処理方法(8)は、上記画像認識処理方法(1)又は(2)において、前記対象物の位置データが、前記撮像された画像から検出された前記対象物の3次元位置データであり、前記背景画像が、3次元背景データであり、前記合成画像を生成するステップが、前記対象物の3次元位置データを用い、前記3次元背景データ上の前記対象物の3次元位置に前記模型を描画し、該模型が描画された前記3次元背景データから前記模型を含む前記撮像された画像領域を切り出した画像を前記合成画像として生成するものであることを特徴としている。
上記画像認識処理方法(8)によれば、前記対象物の3次元位置データを用い、前記3次元背景データ上の前記対象物の3次元位置に前記模型を描画し、該模型が描画された前記3次元背景データから前記模型を含む前記撮像された画像領域を切り出した画像を前記合成画像として生成するので、前記模型の描画状態に違和感の少ない俯瞰画像を前記合成画像として生成することができる。
また本発明に係る画像認識処理プログラム(1)は、少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのコンピュータに実行させるための画像認識処理プログラムであって、前記少なくとも1つのコンピュータに、前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データが記憶された位置データ記憶部から前記対象物の位置データを読み出すステップと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させることを特徴としている。
上記画像認識処理プログラム(1)によれば、前記少なくとも1つのコンピュータに実行させることにより、上記画像認識処理方法(1)と同様の効果を得ることができる。
また本発明に係る画像認識処理プログラム(2)は、少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのコンピュータに実行させるための画像認識処理プログラムであって、前記少なくとも1つのコンピュータに、前記少なくとも1つの撮像部で撮像された画像からプライバシー情報を含む対象物の位置を検出する処理を行うステップと、該検出した対象物の位置データを位置データ記憶部に記憶するステップと、前記位置データ記憶部から前記対象物の位置データを読み出すステップと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させることを特徴としている。
上記画像認識処理プログラム(2)によれば、前記少なくとも1つのコンピュータに実行させることにより、上記画像認識処理方法(2)と同様の効果を得ることができる。
また本発明に係る画像認識処理プログラム(3)は、少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのコンピュータに実行させるための画像認識処理プログラムであって、上記画像認識処理方法(3)〜(8)いずれかの方法を、前記少なくとも1つのコンピュータに実行させることを特徴としている。
上記画像認識処理プログラム(3)によれば、前記少なくとも1つのコンピュータに実行させることにより、上記画像認識処理方法(3)〜(8)のいずれかと同様の効果を得ることができる。
また本発明に係るコンピュータ読み取り可能な記録媒体(1)は、上記画像認識処理プログラム(1)〜(3)のいずれかを記録したコンピュータ可読媒体であることを特徴としている。
上記コンピュータ読み取り可能な記録媒体(1)によれば、該記録媒体に記録された上記画像認識処理プログラムをコンピュータに読み取らせて実行させることにより、上記画像認識処理プログラム(1)〜(3)のいずれかと同様の効果を実現させることができる。前記記録媒体は、有形の記録媒体であればよく、内蔵式や外付け式の各種ICメモリ、ハードディスク、光ディスクなどが含まれる。
また本発明に係るプロセッサ(1)は、上記画像認識処理プログラム(1)〜(3)のいずれかを読み込み実行するものであることを特徴としている。
上記プロセッサ(1)によれば、上記画像認識処理プログラム(1)〜(3)のいずれかを読み込み実行することにより、当該プロセッサにより、上記画像認識処理プログラム(1)〜(3)のいずれかと同様の効果を実現させることができる。
また本発明に係る電子機器(1)は、上記プロセッサ(1)が搭載されていることを特徴としている。
上記電子機器(1)によれば、上記プロセッサ(1)が搭載されているので、上記画像認識処理プログラム(1)〜(3)のいずれかと同様の効果を実現させることができる。
また本発明に係るデータ提供方法(1)は、ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行されるデータ提供方法であって、前記少なくとも1つのコンピュータが、上記画像認識処理方法(1)〜(8)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を別のコンピュータに送信するステップを含んでいることを特徴としている。
上記データ提供方法(1)によれば、前記少なくとも1つのコンピュータが、上記画像認識処理方法(1)〜(8)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を別のコンピュータに送信するので、前記少なくとも1つのコンピュータが、前記合成画像を前記別のコンピュータに提供することができ、プライバシーが適切に保護された前記合成画像を第3者に提供することで、該合成画像を用いた新たなサービス提供の可能性を広げることができる。
また本発明に係るデータ提供方法(2)は、上記データ提供方法(1)において、前記撮像された画像を必要とする所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信するステップをさらに含んでいることを特徴としている。
上記データ提供方法(2)によれば、前記所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信することができ、前記所定の条件下で前記撮像された画像も活用することができる。
また本発明に係るデータ提供方法(3)は、ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行されるデータ提供方法であって、前記少なくとも1つのコンピュータが、上記画像認識処理方法(1)〜(8)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を表示部に表示するステップを含んでいることを特徴としている。
上記データ提供方法(3)によれば、前記少なくとも1つのコンピュータが、上記画像認識処理方法(1)〜(8)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を表示部に表示するので、プライバシーが適切に保護された前記合成画像を前記表示部に表示させて第3者に提示することができ、該合成画像を用いた新たなサービス提供の可能性を広げることができる。
また本発明に係るデータ提供方法(4)は、上記データ提供方法(3)において、前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示するステップをさらに含んでいることを特徴としている。
上記データ提供方法(4)によれば、前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示させることができ、状況に応じて前記合成画像と前記撮像された画像と切り替えることができるサービスを提供することができ、該サービスの付加価値を高めることができる。
また本発明に係るデータ提供システム(1)は、少なくとも1つのコンピュータがネットワークを介して別のコンピュータにデータを提供するデータ提供システムであって、前記少なくとも1つのコンピュータが、少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データを前記別のコンピュータに送信する位置データ送信部と、前記対象物が含まれていない背景画像を前記別のコンピュータに送信する背景画像送信部とを備え、前記別のコンピュータに、前記対象物の位置データと前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成させることを特徴としている。
上記データ提供システム(1)によれば、前記少なくとも1つのコンピュータから前記別のコンピュータに前記背景画像と、前記対象物の位置データとを送信し、前記別のコンピュータで前記合成画像を生成させるので、プライバシーが適切に保護された前記合成画像を前記別のコンピュータを使用する第3者に提供し、該合成画像を用いた新たなサービス提供の可能性を広げることができる。また、前記別のコンピュータに前記背景画像を送信した後、前記対象物の位置データのみを適宜送信することが可能となるので、前記撮像された画像をリアルタイムで前記別のコンピュータに送信するような構成と比較して、前記別のコンピュータに送信するデータ容量(データ転送量)を大幅に削減することができる。
また本発明に係るデータ提供プログラム(1)は、ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行させるためのデータ提供プログラムであって、前記少なくとも1つのコンピュータに、上記画像認識処理プログラム(1)〜(3)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を別のコンピュータに送信するステップを実行させることを特徴としている。
上記データ提供プログラム(1)によれば、前記少なくとも1つのコンピュータに、前記合成画像を前記別のコンピュータに提供させることができ、プライバシーが適切に保護された前記合成画像を第3者に提供することで、該合成画像を用いた新たなサービス提供の可能性を広げることができる。
また本発明に係るデータ提供プログラム(2)は、上記データ提供プログラム(1)において、前記少なくとも1つのコンピュータに、前記撮像された画像を必要とする所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信するステップをさらに実行させることを特徴としている。
上記データ提供プログラム(2)によれば、前記所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信させることができ、前記別のコンピュータにおいて前記所定の条件下で前記撮像された画像も活用させることができる。
また本発明に係るデータ提供プログラム(3)は、ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行させるためのデータ提供プログラムであって、前記少なくとも1つのコンピュータに、上記画像認識処理プログラム(1)〜(3)のいずれかにおける前記合成画像を生成するステップで生成された前記合成画像を表示部に表示するステップを実行させることを特徴としている。
上記データ提供プログラム(3)によれば、前記少なくとも1つのコンピュータに、前記合成画像を生成するステップで生成された前記合成画像を表示部に表示させることにより、プライバシーが適切に保護された前記合成画像を前記表示部に表示させて第3者に提示することができ、新たなサービス提供の可能性を広げることができる。
また本発明に係るデータ提供プログラム(4)は、上記データ提供プログラム(3)において、前記少なくとも1つのコンピュータに、前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示するステップをさらに実行させることを特徴としている。
上記データ提供プログラム(4)によれば、前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示させることができ、状況に応じて前記合成画像と前記撮像された画像と切り替えることができるサービスを提供することができ、該サービスの付加価値を高めることができる。
また本発明に係るコンピュータ読み取り可能な記録媒体(2)は、上記データ提供プログラム(1)〜(4)のいずれかを記録したコンピュータ可読媒体であることを特徴としている。
上記コンピュータ読み取り可能な記録媒体(2)によれば、該記録媒体に記録された上記データ提供プログラムをコンピュータに読み取らせて実行させることにより、上記データ提供プログラム(1)〜(4)のいずれかと同様の効果を実現させることができる。前記記録媒体は、有形の記録媒体であればよく、内蔵式や外付け式の各種ICメモリやハードディスク、光ディスクなどが含まれる。
また本発明に係るプロセッサ(2)は、上記データ提供プログラム(1)〜(4)のいずれかを読み込み実行することを特徴としている。
上記プロセッサ(2)によれば、上記画データ提供プログラム(1)〜(4)のいずれかを読み込み実行することにより、当該プロセッサにより、データ提供プログラム(1)〜(4)のいずれかと同様の効果を実現させることができる。
また本発明に係る電子機器(2)は、上記プロセッサ(2)が搭載されていることを特徴としている。
上記電子機器(2)によれば、上記プロセッサ(2)が搭載されているので、上記画データ提供プログラム(1)〜(4)のいずれかと同様の効果を実現させることができる。
本発明の実施の形態(1)に係るデータ提供システムの構成を説明するための概念図である。 画像センサ装置のハードウェア構成を概略的に示すブロック図である。 画像処理サーバ及び画像提供サーバのハードウェア構成を概略的に示すブロック図である。 画像センサ装置、画像処理サーバ及び画像提供サーバが実行する処理を説明するための機能ブロック図である。 画像処理サーバが行う各種データの登録処理を説明するためのフローチャートである。 画像処理サーバが行う合成画像生成処理を説明するためのフローチャートである。 実施の形態(1)に係るデータ提供システムで実行される処理動作を説明するためのフローチャートである。 合成画像を説明するための表示例であり、(a)は撮像された画像、(b)は3D地図データから生成した背景画像、(c)は対象物の検出に成功した場合の合成画像、(d)は対象物の検出に失敗した場合の画像である。 実施の形態(2)に係るデータ提供システムの構成を説明するための概念図である。 画像センサ装置及び画像提供サーバが実行する処理を説明するための機能ブロック図である。 実施の形態(2)に係るデータ提供システムで実行される処理動作を説明するためのフローチャートである。 実施の形態(3)に係るデータ提供システムの構成を説明するための概念図である。 画像センサ装置、画像処理サーバ及び利用者端末が実行する処理を説明するための機能ブロック図である。 実施の形態(3)に係るデータ提供システムで実行される処理動作を説明するためのフローチャートである。 利用者端末の表示部に表示された合成画像の表示例を示した図である。
以下、本発明に係る画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器の実施の形態を図面に基づいて説明する。図1は、実施の形態(1)に係るデータ提供システムの構成を説明するための概念図である。
データ提供システム1は、画像センサ装置10、ルーター20、画像処理サーバ30及び画像提供サーバ40を含んで構成され、プライバシー情報を含む対象物2のプライバシーが保護された画像を利用者端末50に提供可能なシステムとなっている。実施の形態(1)では、画像処理サーバ30が、本実施の形態に係る画像認識処理方法を実行するコンピュータを備えた画像処理装置300(図4)として機能する。
本実施の形態では、プライバシーを保護する対象物2が人間である場合について説明するが、対象物2は人間に限定されるものではない。例えば、個人を特定し得る情報を示すもの、車や自転車など人間が操作や所持しているものも対象物として設定することができる。なお、本明細書においてプライバシー情報とは対象物2が人間である場合は、その人間を特定し得る情報であり、対象物2が車や自転車の場合は所有者を特定し得る情報である。
画像センサ装置10は、画像を撮像するカメラ装置として機能するものである。画像センサ装置10で撮像される画像(実画像)は、動画像の他、静止画像でもよく、また、カラー画像の他、グレー画像等であってもよい。
ルーター20は、画像センサ装置10と画像処理サーバ30との間に設けられた通信接続機器である。ルーター20は、制御部、記憶部、ネットワーク用インターフェース、機器接続用インターフェース、電源部等(いずれも図示せず)を備え、IPアドレスに従ってデータを転送するネットワーク経路(送信先)を選択する機能を備えている。画像センサ装置10とルーター20との接続は、有線接続の他、無線接続であってもよい。なお、ルーター20は必須の構成ではなく、画像センサ装置10を直接ネットワーク60に接続する構成としてもよい。
画像処理サーバ30は、コンピュータを備えた電子機器であり、画像提供サーバ40側から要求があった場合や一定時間毎などの所定のタイミングで、対象物2のプライバシーが保護された合成画像を生成し、ネットワーク(通信網)60を介して画像提供サーバ40にアップロード(転送)する機能を備えている。ネットワーク60には、インターネット、VPNネットワーク、専用回線、これらを組み合わせた通信回線などが適用され、有線系及び無線系のネットワークが含まれる。画像処理サーバ30及び画像提供サーバ40の設置個数は特に限定されない。データ提供システム1に少なくとも1つ以上装備されていればよい。
画像センサ装置10の設置場所や設置個数は特に限定されない。画像センサ装置10は、例えば、店舗、商業施設、商店街、地下街、事業施設、屋外又は車両等の移動体など(以下、施設等と記す)に設置され、例えば、施設等の監視カメラとして機能する。また、画像処理サーバ30は、画像センサ装置10が設置された(画像センサ装置10を管理する)施設等毎に内部(施設内ネットワークの)サーバとして設けることができる。なお、別の実施の形態では、ルーター20内に画像処理サーバ30の機能を装備させたシステム構成とすることもできる。
画像提供サーバ40は、コンピュータを備えた電子機器であり、例えば、利用者端末50からの要求に基づいて、画像処理サーバ30からアップロードされた画像データをネットワーク60を介して利用者端末50に提供する機能を備えている。画像センサ装置10、画像処理サーバ30、画像提供サーバ40、及び利用者端末50には、ネットワーク60を介して相互に連携して画像データを処理して提供するための画像認識処理やデータ提供用のプログラムが組み込まれている。相互に連携可能なサービスプラットフォームが構築されることによりシステムの運用が効率良く行われるようになっている。
利用者端末50は、コンピュータを備えた電子機器であり、汎用のパーソナルコンピュータ(PC)、スマートフォン、タブレット端末などの情報端末装置で構成されている。利用者端末50は、画像センサ装置10を管理する施設等の運用者とは異なる第3者が使用するものである。画像提供サーバ40と利用者端末50には、相互に連携するアプリケーションソフトウェア(外部アプリ)51(図4参照)がダウンロード等により組み込まれている。外部アプリ51は、画像提供サーバ40から提供された画像データを第3者が利用可能なサービスを提供するためのソフトウェアである。
外部アプリ51を通じて第3者に提供可能なサービスには、画像提供サーバ40から提供される合成画像等のデータから得られる情報、例えば、対象物2の位置や姿勢などの位置状態、背景にある物(構造物や配置物)との位置関係などの情報を利用するサービスが挙げられる。より具体的には、異常や異変を検知する各種警備サービス、電力予測や交通予測などの各種予測サービス、販売促進・顧客開拓・商品配置・人材配置などの各種マーケティングサービスなどが含まれる。また、画像提供サーバ40は、外部アプリ51の種類などに応じて複数設けることができる。
図2は、画像センサ装置10のハードウェア構成を概略的に示すブロック図である。画像センサ装置10は、撮像部11、画像処理部12、記憶部13、制御部14、入出力インターフェース(I/F)15、操作部16、時計部17、及び電源部18を含んで構成されている。画像センサ装置10には、これら各部が一つの筐体内に装備された一体式のものだけでなく、撮像部11を含むカメラ部分と、制御部14等を含むコントローラ部分が別体で構成されたものも含まれる。
撮像部11は、レンズ系、CCDやCMOSなどの撮像素子、及び駆動回路を含んで構成されている。画像処理部12は、各種の画像処理回路や画像処理プロセッサを含んで構成され、各種の画像補正処理や画像認識処理などを行う。画像認識処理には、対象物2の特徴抽出処理、識別処理、統計計算処理、位置姿勢・属性などの推定判断処理などが含まれる。対象物2が人間である場合は、人間の識別、頭部等の身体的特徴点の抽出、姿勢、属性(男性又は女性、大人又は子供など)などを推定判断する処理機能が含まれていることが好ましい。
制御部14は、CPU(プロセッサ)、RAM、ROMなどを含むマイクロコンピュータを含んで構成され、画像センサ装置10の各部の動作制御を行うためのプログラムが格納されている。これらプログラムは、コンピュータ読み取り可能な内蔵式の記録媒体の他、外付け式の記録媒体に格納してもよい。記憶部13は、撮像された画像データなどを一時記憶可能な半導体メモリなどで構成されている。
入出力I/F15は、ルーター20などの外部機器と接続するための各種インターフェースで構成されている。操作部16は、画像センサ装置10の各種機能を作動させるための操作ボタンや操作パネル等を含んで構成されている。時計部17は、画像が撮像された時間を記録する時計回路を含んで構成されている。電源部18は、画像センサ装置10の各部に電源を供給する電源回路やバッテリを含んで構成されている。
図3は、画像処理サーバ30と画像提供サーバ40のハードウェア構成を概略的に示すブロック図である。画像処理サーバ30は、画像処理部31、記憶部32、通信処理部33、制御部34、操作部35、表示部36、及び電源部37を含んで構成されているが、この構成に限定されるものではない。画像処理サーバ30は、表示部36を含んでいなくとも良い。
画像処理部31は、対象物2のプライバシーを保護した画像を合成する処理等を行う画像処理回路や画像処理プロセッサを含んで構成されている。記憶部32は、ハードディスクドライブなどの大容量の記憶装置を含んで構成されている。記憶部32には、対象物2を含んでいない背景画像を生成するために用いる3D地図データ(背景データ)、画像センサ装置10のパラメータ情報、画像センサ装置10で撮像された画像領域に対応させて生成された背景画像などの各種データがデータベース化されて記憶されるようになっている。
通信処理部33は、ネットワーク60を介して画像センサ装置10や外部の画像提供サーバ40側と通信接続するための通信インターフェースや通信制御部を含んで構成されている。制御部34は、CPU(プロセッサ)、RAM、ROMなどを含むマイクロコンピュータを含んで構成され、画像処理サーバ30の各部の動作制御を行うためのプログラムが格納されている。これらプログラムは、コンピュータ読み取り可能な内蔵式の記録媒体の他、外付け式の記録媒体に格納してもよい。
操作部35は、画像処理サーバ30の各種機能の作動、データ入出力・更新指示等を行うためのキーボード等の入力機器を含んで構成されている。表示部36は、画像処理サーバ30で処理されたデータ等を表示可能な表示装置を含んで構成されている。電源部37は、画像処理サーバ30の各部に電源供給を行う電源回路やバックアップ電源などを含んで構成されている。
画像提供サーバ40は、記憶部41、通信処理部42、制御部43、操作部44、表示部45、及び電源部46を含んで構成されているが、この構成に限定されるものではない。
記憶部41は、ハードディスクドライブなどの大容量の記憶装置を含んで構成され、画像処理サーバ30から送信されてきた合成画像や実画像のデータなどがデータベース化されて記憶されるようになっている。
通信処理部42は、ネットワーク60を介して利用者端末50側や画像処理サーバ30側と通信するための通信インターフェースや通信制御部を含んで構成されている。制御部43は、CPU(プロセッサ)、RAM、ROMなどを含むマイクロコンピュータを含んで構成され、画像提供サーバ40の各部の動作制御を行うためのプログラムが格納されている。これらプログラムは、コンピュータ読み取り可能な内蔵式の記録媒体の他、外付け式の記録媒体に格納してもよい。
操作部44は、画像提供サーバ40の各種機能の作動、データ入出力・更新指示等を行うためのキーボード等の入力機器を含んで構成されている。表示部45は、画像提供サーバ40で処理されたデータ等を表示可能な表示装置を含んで構成されている。電源部46は、画像提供サーバ40の各部に電源供給を行う電源回路やバックアップ電源などを含んで構成されている。
図4は、画像センサ装置10、画像処理サーバ30及び画像提供サーバ40が実行する処理を説明するための機能ブロック図である。
[画像センサ装置10]
画像取得部12aが、撮像部11で撮像された画像を取得する処理を行い、対象検出部12bが、取得した画像(実画像)からプライバシー情報を含む対象物(人間)2を検出(認識)する処理を行う。取得した画像と対象物検出(画像認識)結果のデータが、例えば、画像センサ装置10のID(識別子)及び画像取得日時等のデータと関連付けた状態で画像処理サーバ30に送信される。
[画像処理サーバ30]
画像処理サーバ30に画像処理装置300が装備されている。画像処理装置300は、画像受信部33a、画像送信部33b、位置検出部31a、背景画像生成部31b、合成画像生成部31c、及び3D地図登録部32bを含んで構成され、これら各部は、画像処理サーバ30の画像処理部31、記憶部32、通信処理部33、及び制御部34の機能により実現される。
画像受信部33aが、画像センサ装置10から送信されてきた画像データを受信して取得し(画像取得部として機能し)、実画像データベース32aに記憶する処理を行う一方、位置検出部31aが、対象物検出のデータに基づいて、撮像された画像上における対象物(人間)2の位置(座標又は領域)を算出する処理を行う。位置検出部31aで検出された対象物2の位置データは、例えば、画像センサ装置10のID(識別子)、画像取得日時等のデータと関連付けた状態で制御部34内のRAM又は記憶部32に記憶される。制御部34内のRAM又は記憶部32が、対象物2の位置データを記憶する位置データ記憶部として機能する。なお、対象検出部12bの機能を画像処理サーバ30に設ける構成としてもよい。
位置検出部31aで実行される対象物2の位置算出方法には、2次元位置算出方法や3次元位置算出方法などが適用される。
2次元位置算出方法としては、
(1)撮像された画像上から対象物2である人間の頭部の特徴点(x、y座標)を抽出し、頭部位置(座標又は領域)を算出する方法、
(2)撮像された画像上から対象物2である人間の頭部、胴体部、腕部、脚部等の身体的特徴点(x、y座標)を抽出し、人位置(座標又は領域)を算出する方法、
(3)事前取得した画像(比較用背景画像)と撮像された画像とを比較して、対象物2である人間が存在する前景領域(x、y座標又は領域)を抽出する背景差分処理を行い、人位置を算出する方法などが適用され得る。
3次元位置算出方法としては、
(1)単眼の画像センサ装置10で取得した画像上で検出された対象物2の位置(座標又は領域)データ、画像センサ装置10の位置・姿勢(内部・外部パラメータ)情報、3次元地図データ、及び検出対象物(人間)の属性(男性又は女性、大人又は子供など)や姿勢状態(立った状態、座った状態、屈んだ状態、又は倒れている状態)等の画像認識データを利用して3次元位置座標を算出する方法、
(2)単眼の画像センサ装置10で取得した画像上で検出された対象物2の位置(座標又は領域)データと、画像以外のセンサ情報、例えば、対象物(人間)2が所持しているスマートフォンなどの携帯端末が発する電波強度(Bluetooth Low Energy(BLE)、Wi-Fi)データ(屋内外での位置測位データ)とを利用して3次元位置座標を算出する方法(この場合、画像センサ装置10にBLE受信機(ビーコン)やWi-Fi電波の受信機が接続されている。)、
(3)複数の画像センサ装置10で同じ領域を撮像している場合、複数の画像センサ装置10からの視線(エピポーラ線)が空間中の1点に交わるエピポーラ条件(カメラ姿勢に基づく基礎行列を用いて対応点の拘束ラインを決定する、2枚の画像間に存在する幾何学的関係を示す条件)、及び3次元地図データを用いて、エピポーラ線の交点を対象物2の3次元位置として算出する方法(特に対象物が複数存在する場合には、エピポーラ条件などの3次元幾何学上の制約と、時系列的な制約とを組み合わせることで、より正確な位置推定を行うことが可能となっている。)、
(4)画像センサ装置10、3次元地図データ、及び各種センサ(磁気センサ、電子コンパス、加速度センサ、ジャイロセンサ、位置測位センサなど)を組み合わせて、これらセンサ情報に基づいて対象物2の3次元位置座標を算出する方法などが適用される。
また、3D地図登録部32bが、画像センサ装置10が設置されている施設等の3D(3次元)地図データを背景データベース(DB)32cに登録する処理を行う。3D地図データは、画像センサ装置10の撮像範囲に対応する領域の背景画像を生成するために用いられる。
外部パラメータ登録部32dが、画像センサ装置10の外部パラメータをパラメータデータベース(DB)32fに登録し、内部パラメータ登録部32eが、画像センサ装置10の内部パラメータをパラメータDB32fに登録する処理を行う。内部パラメータは、画像センサ装置10の焦点距離、画像中心、画像(画素)サイズ、歪収差係数を含む。外部パラメータは、画像センサ装置10の位置や姿勢を示す回転、平行移動量を含み、ある座標系における3次元座標を別の座標系での座標に変換するために必要となるパラメータである。
背景画像生成部31bが、背景DB32cに登録されている3D地図データ、パラメータDB32fに登録されている画像センサ装置10のパラメータ等を用いて、3D地図データから画像センサ装置10の撮像範囲に対応する背景画像を生成する処理を行う。生成された背景画像は、例えば、画像センサ装置10のIDと関連付けて背景画像データベース(DB)32gに登録される。
合成画像生成部31cが、制御部34内のRAM又は記憶部32から読み出した対象物の位置(座標)データと、背景画像DB32gから読み出した、対応する背景画像とを用い、該背景画像上における対象物2の検出位置に、対象物2のプライバシー情報が除去された(含まれていない)模型、例えば対象物2のシルエットを表したCG画像(人形)を描画して合成画像を生成する処理を行う。なお、対象物2の模型とは、撮像された画像に含まれる対象物2を、プライバシー情報を含まない形態で模した表示物であり、コンピュータによって背景画像上に対象物2の代替物として描画される表示物である。
画像送信部33bが、画像センサ装置10のIDや画像取得日時等のデータと関連付けられた合成画像データを画像提供サーバ40に送信する処理を行う。
なお、位置検出部31aが対象物2の画像上の2次元座標を算出する場合、合成画像生成部31cは、背景画像に2次元的に模型を配置した合成画像を生成する処理を行う。
また、位置検出部31aが対象物2の3D地図上の3次元座標を算出する場合、合成画像生成部31cは、3次元座標から画像上の2次元座標を復元し、復元した2次元座標に基づいて背景画像に2次元的に模型を配置した合成画像を生成する処理を行う。
また、画像送信部33bは、所定の条件成立時に実画像DB32aに記憶されている実画像を画像提供サーバ40に送信する処理も行う。また、画像送信部33bは、画像提供サーバ40を管理するためのアプリケーションソフトウェア(内部アプリ)38が組み込まれた管理端末装置(図示せず)に、実画像DB32aに記憶されている実画像や合成画像生成部31cで生成された合成画像を送信する処理も行うようになっている。
[画像提供サーバ40]
画像提供サーバ40は、コンピュータを備えた電子機器であり、画像処理サーバ30で生成された合成画像や撮像された実画像を利用者端末50に送信する処理などを実行する。
画像受信部42aが、画像処理サーバ30から送信されてきた合成画像や実画像のデータを受信し、画像センサ装置10のIDや撮像日時等のデータと関連付けて合成画像データベース41a、実画像データベース41bにそれぞれ記憶する処理を行う。
画像送信部42bが、合成画像を要求してきた利用者端末50に、合成画像DB41aから読み出した合成画像(前記要求に対応した場所の合成画像)を送信する処理を行う。また、実画像を要求してきた利用者端末50に、所定の条件下で実画像DB41bから読み出した実画像(前記要求に対応した場所の実画像)を送信する処理を行う。なお、実画像には対象物2のプライバシー情報が含まれている場合があるため、実画像は、画像処理サーバ30又は画像提供サーバ40が、対象物2に関する異常事態や緊急事態などの特別な条件が成立したと判断した場合にのみ利用者端末50に送信可能となっている。
図5は、画像処理サーバ30が行う各種データの登録処理を説明するためのフローチャートである。本処理は、撮像された画像に対応する領域の背景画像を生成するために必要な処理であり、例えば、画像センサ装置10を設置する際に実行される。
ステップS1では、背景画像を生成する元となる背景データとしての3D地図データを背景DB32cに登録する処理を行う。3D地図データには、設置される画像センサ装置10の個数及び撮像範囲等に基づいて適切な背景領域が含まれる3次元背景データが採用される。3D地図データは、実写ベースの3D地図の他、CGベースの3D地図でもよい。3D地図データには、プライバシー情報を含む対象物2のデータ(少なくともプライバシーに関わる部分のデータ)が含まれていないデータが採用される。外部のデータベースサーバや記録媒体(いずれも図示せず)などから3D地図データを取得して登録する処理を行ってもよい。
ステップS2では、画像センサ装置10の内部パラメータを登録する処理を行う。内部パラメータには、画像センサ装置10の焦点距離、画像中心、歪収差係数画像、画素サイズが含まれる。内部パラメータの取得方法は、画像センサ装置10の出荷時のキャリブレーション情報を取得する方法、内部パラメータの取得用ツール(ソフトウェア)を使用して取得する方法、画像処理サーバ30に搭載されたキャリブレーションツール(ソフトウェア)を使用し、撮像した画像を用いて内部パラメータを取得する方法などが採用され得る。内部パラメータのキャリブレーション(校正)は、チェスボード等のキャリブレーション用マーカを写した画像を複数枚取得し、これら画像上のチェスボードの対応点を計算することにより行うこともできる。
ステップS3では、画像センサ装置10の外部パラメータを登録する処理を行う。外部パラメータは、画像センサ装置10の位置姿勢に関する情報を含んでいる。外部パラメータの取得方法は、画像センサ装置10の設置後にキャリブレーションツールを使用して取得する方法がある。一般的なキャリブレーション方法は、3D地図上における3次元位置が既知の点aと、点aが画像上に投影された点a’との組み合わせを複数点対応付ける処理を行い、外部パラメータである回転パラメータR、平行移動量パラメータTを計算する。
下記の数式1は、画像センサ装置10における実際の空間(実空間)と表示画像との関係式を表している。X、Y、Zは実空間における3次元座標、Rが回転パラメータ、Tが平行移動量パラメータ、Aが内部パラメータ、x、yが画像上における投影点を示している。
Figure 2018082234
ステップS4では、内部パラメータと外部パラメータとを登録した後、これらパラメータの調整処理を行う。パラメータの調整は、例えば、3D地図データを用いて生成された背景画像と、画像センサ装置10で撮像された画像(実画像)とを表示部36に表示させて行うことができる。3D地図データの精度や外部パラメータのキャリブレーション精度によっては、背景画像と実画像とに位置ずれが生じている場合がある。このような場合、実画像と3D地図上の対応点を並べたほぼ同一視点上の画像上で対応付けを行う処理を実行するツールによりパラメータの微調整を行うようにしてもよい。
ステップS5では、事前登録された3D地図データ、内部パラメータ、外部パラメータを用いて、画像センサ装置10で撮像される画像に対応する撮像範囲の背景画像を生成する処理を行い、その後処理を終える。生成される背景画像は、背景に存在する構造物などを含む画像であり、プライバシー情報を含む対象物2は含まれていない。また、画像の撮像時間帯等に応じて光源を変更したり、木々を揺らす等の処理を背景画像に反映させて、実画像で得られる情景に合わせた数種類の画像を背景画像として生成するようにしてもよい。生成された背景画像は、例えば、画像センサ装置10のID、画像取得日時等のデータと関連付けて背景画像DB32gに登録される。
図6は、画像処理サーバ30が行う合成画像生成処理を説明するためのフローチャートである。本処理動作は、例えば、画像提供サーバ40側から合成画像の送信要求があった場合に実行される。または、該送信要求後の一定時間毎に実行するようにしてもよい。
まずステップS11では、画像センサ装置10から画像を取得する処理を行う。画像センサ装置10から取得する画像は、リアルタイムで撮像された画像の他、画像センサ装置10の記憶部13に保存された撮像済みの画像(保存画像)であってもよい。
ステップS12では、ステップS11で取得した画像からプライバシーを保護(開示を制限)するべき対象物2を検出する処理を行う。本実施の形態では、対象物2が人間に設定されている場合について説明しているが、対象物2は人間に限定されるものではなく、プライバシーを保護すべきものを対象とすることができる。また、対象物2は1種類に限定されるものではなく、2種類以上のものを対象物として設定することもできる。
画像上の対象物(人間)2を検出する方法は、例えば、人間の体(頭部、胴体部、腕部、脚部など)の特徴部を抽出して検出する方法、取得した連続フレーム画像の差分に基づいて人間を検出する方法、事前取得した基準背景画像と取得画像との差分に基づいて人間を検出する方法など、各種の画像認識方法が採用され得る。
ステップS13では、ステップS12で検出された対象物2の位置を検出する処理を行う。対象物2の位置を検出する方法は、上記した画像上の2次元位置(x、y座標又は領域)を算出する方法、3D地図上の3次元位置(x、y、z座標又は領域)を算出する方法が採用され得る。
ステップS14では、ステップS13で検出された対象物2の位置データを用いて、事前に生成された背景画像に対象物2のプライバシー情報が除かれた模型(人形)を投影して描画した合成画像を生成する処理を行い、生成した合成画像を記憶部32に記憶した後、処理を終える。
模型の合成方法としては、上記した方法、すなわち、事前に生成された背景画像上に模型を投影して合成する方法(2次元的な合成方法)の他、3D地図データ上に3次元位置データに基づいて模型を3次元的に配置し、画像センサ装置10の撮像領域に対応する領域を画像として切り出して合成画像を生成する方法(3次元的な合成方法)が採用され得る。3次元的な合成方法を採用した場合は、模型が描画された状態に違和感の少ない合成画像を生成することが可能となる。
図7は、実施の形態(1)に係るデータ提供システム1で実行される処理動作を説明するためのフローチャートである。本処理動作は、例えば、利用者端末50で外部アプリ51が起動された場合に開始される。
利用者端末50が、ステップS21において、外部アプリ51を起動する処理を行う。ステップS22において、合成画像の要求操作があったと判断した場合に、合成画像の要求信号を画像提供サーバ40に送信する処理を行う。合成画像の要求信号には、利用者端末50のID(識別子)、要求する合成画像に関する情報などが含まれる。要求する合成画像に関する情報には、対象とする施設、場所、画像センサ装置10の情報、撮像日時・期間などの情報が含まれる。これら情報は、外部アプリ51上で適宜入力できる他、予め設定できるようにしてもよい。
次に、画像提供サーバ40が、ステップS23において、利用者端末50から合成画像の要求信号を受信する処理を行う。次のステップS24では、受信した合成画像の要求信号に基づいて、画像処理サーバ30に合成画像の要求信号を送信する処理を行う。
次に、画像処理サーバ30が、ステップS25において、画像提供サーバ40から合成画像の要求信号を受信する処理を行う。次のステップS26では、受信した合成画像の要求信号に基づいて、画像取得対象として指定された画像センサ装置10から撮像画像(実画像)を含むデータを取得する処理を行う。取得したデータには、実画像データ、撮像日時データ、画像センサ装置10のIDなどが含まれ、これらデータが実画像DB32aに互いに関連付けた形式で記憶される。
次にステップS27では、取得した実画像から対象物2を検出(認識)する処理を行う。本処理は、先に説明した、図6のステップS12に対応する処理である。次のステップS28では、実画像中で検出された対象物2の位置を検出する処理を行う。本処理は、先に説明した、図6のステップS13に対応する処理である。続くステップS29では、検出された対象物2の位置データを制御部34内のRAM又は記憶部32に記憶する。対象物2の位置データは、画像センサ装置10のIDや撮像日時データなどの実画像に関するデータと関連付けた形式で記憶される。
次にステップS30では、背景画像DB32gから、実画像の撮像範囲に対応する背景画像を読み出す処理を行い、次のステップS31では、制御部34内のRAM又は記憶部32から、対応する実画像で検出された対象物2の位置データを読み出す処理を行い、ステップS32に進む。
ステップS32では、ステップS31で読み出した対象物2の位置データと、ステップS30で読み出した背景画像とを用い、該背景画像に対象物2のプライバシー情報が除かれた対象物2の模型が描画された合成画像を生成する処理を行う。本処理は、先に説明した、図6のステップS14に対応する処理である。続くステップS33では、生成された合成画像を記憶部32に記憶する。生成された合成画像のデータは、画像センサ装置10のIDや撮像日時データなどと関連付けた形式で記憶される。次にステップS34では、記憶部32から読み出した合成画像のデータを画像提供サーバ40に送信する処理を行う。
画像提供サーバ40では、ステップS35において、画像処理サーバ30から送信されてきた合成画像のデータを受信する処理を行い、次のステップS36で、受信した合成画像のデータを合成画像DB41aに記憶する処理を行う。合成画像は、画像センサ装置10のIDや撮像日時等のデータと関連付けた形式で記憶される。次のステップS37では、合成画像DB41aから合成画像のデータを読み出して利用者端末50に送信する処理を行う。
利用者端末50では、ステップS38において、画像提供サーバ40から送信されてきた合成画像のデータを受信する処理を行い、次のステップS39において、受信した合成画像のデータを記憶部(図示せず)に記憶する処理を行い、続くステップS40において、合成画像を表示部に表示する処理を行う。その後、ステップS41において、外部アプリ51で合成画像を用いたデータ処理が実行され、その後、ステップS42において、外部アプリ51の終了操作を検出すると終了処理を行い、その後、処理を終える。
図8は、画像処理サーバ30で生成される合成画像を説明するための表示例であり、(a)は、画像センサ装置10で撮像された画像(実画像)、(b)は3D地図データを基に生成された背景画像、(c)は対象物が検出された場合の合成画像、(d)は対象物の検出に失敗した場合の画像である。
図8(a)に示すように、実画像P1には対象物2が写されている。図8(b)に示すように、3D地図データを基に生成された背景画像P2には対象物2は含まれていない。図8(c)に示すように、対象物2が検出された場合、背景画像P2にプライバシー情報が除去された模型3が合成される。実画像P1上における対象物2の位置に対応する背景画像P2上の位置に、対象物2の模型3が表示されるので、対象物2のプライバシーを保護することが可能となっている。
また、模型3が対象物2の位置や姿勢(この場合、立っている状態)などの状態を再現するように描画され、背景画像P2が実画像P1の撮像範囲に対応したものであるので、対象物2を除いた領域の再現性を高めることができ、背景に存在する物との位置関係等の情報も正確に把握することが可能となっている。
模型3の表示形態は、対象物2である個人が特定されないようにプライバシー情報が除去された形態であれば特に限定されない。例えば、画像センサ装置10による対象物2の画像認識結果に基づく属性(男性又は女性、大人又は子供など)や動作姿勢に対応させた、模型3のモデルや動作モデルを用いることで、より対象物2の位置状態の再現性を高めることができる。合成画像の再現性を高めることにより、合成画像の利用価値を高めることができ、第3者による合成画像を利用したサービスを広く展開させることが可能となる。
また、図8(d)に示すように、対象物2の検出に失敗した場合、実画像P1ではなく背景画像P2が提示されるため、実画像P1に写っている対象物2が提示されることなく、対象物2のプライバシーが確実に保護されるようになっている。
なお、上記合成画像の表示例では、背景画像P2が実画像P1の撮像範囲に対応したものとなっているが、この表示形態に限定されるものではなく、別の表示例では、実画像P1の撮像範囲よりも広い領域を示す背景画像を用いることができる。例えば、複数の実画像で表される領域を3D地図データから背景画像として切り出し、該背景画像に、前記複数の実画像で検出された対象物2の位置に模型3を描画した合成画像を生成することもできる。
上記実施の形態(1)に係るデータ提供システム1によれば、本実施の形態に係る画像認識処理方法を実行するコンピュータを備えた電子機器として機能する画像処理サーバ30により対象物2のプライバシーが適切に保護された合成画像が生成され、画像提供サーバ40が、前記合成画像を利用者端末50に提供することが可能となり、対象物2のプライバシーが適切に保護された合成画像を第3者に提供することで、該合成画像を用いた新たなサービスを外部アプリ51を通じて提供することができる。
上記実施の形態(1)に係る画像認識処理方法を実行する画像処理サーバ30によれば、画像センサ装置10から取得した実画像から対象物2の位置が検出され、対象物2の位置データを用いて、背景画像上の対応する位置に模型3が描画された合成画像が生成される。したがって、実画像から位置が検出された対象物2は模型3として背景画像に描画されるので、対象物2のプライバシー情報を含まない合成画像を生成することができる。また、背景画像に対象物2の模型3を描画するので、撮像された画像毎にモザイク処理等を行う方法と比較して、前記合成画像を連続的に生成する際の画像処理サーバ30にかかる処理負荷を削減することができる。また、実画像から対象物2の検出に失敗したとしても、提供する画像に背景画像を用いるため、検出に失敗した対象物2が利用者端末50に提示されることなく、検出に失敗した対象物2のプライバシーも適切に保護することができ、対象物2のプライバシー情報が流出しないようにチェックするための複雑な処理が不要となり、簡素化された画像認識処理を実現できる。
図9は、実施の形態(2)に係るデータ提供システムの構成を説明するための概念図である。但し、図1に示したデータ提供システム1と同様の構成要素については、同符号を付し、その説明を省略する。
実施の形態(1)に係るデータ提供システム1では、画像処理サーバ30が、本実施の形態に係る画像認識処理方法を実行するコンピュータを備えた画像処理装置300として機能するように構成されていたが、実施の形態(2)に係るデータ提供システム1Aでは、画像センサ装置10Aが、本実施の形態に係る画像認識処理方法を実行するコンピュータを備えた画像処理装置100(図10)として機能するように構成されている。
データ提供システム1Aは、画像センサ装置10A及び画像提供サーバ40を含んで構成され、プライバシー情報を含む対象物2のプライバシーが適切に保護された画像を利用者端末50に提供可能なセンサシステムとなっている。画像センサ装置10Aがネットワーク60を介して画像提供サーバ40に接続されている。画像提供サーバ40は、ネットワーク60を介して利用者端末50と接続されるようになっている。画像センサ装置10A及び画像提供サーバ40の設置個数は特に限定されない。データ提供システム1Aに少なくとも1つ以上装備されていればよい。
画像センサ装置10Aのハードウェア構成は、図2に示した構成と略同様であるが、画像処理部12A、制御部14A、記憶部13Aが異なる機能を備えている。また、画像センサ装置10Aには、ネットワーク60に接続するためのルーター20(図1)の機能が装備されている。なお、ルーター20は必須の構成ではなく、画像センサ装置10Aを直接ネットワーク60に接続してもよい。画像提供サーバ40のハードウェア構成は、図3に示した構成と略同様である。
図10は、画像センサ装置10A及び画像提供サーバ40が実行する処理を説明するための機能ブロック図である。
[画像センサ装置10A]
画像センサ装置10Aに画像処理装置100が装備されている。画像処理装置100は、画像取得部12c、位置検出部12d、合成画像生成部12e、背景画像生成部12f、背景画像登録部13b、画像切替部14a、及び画像送信部15aを含んで構成され、これら各部は、画像センサ装置10Aの画像処理部12A、記憶部13A、制御部14A、及び入出力I/F15の機能により実現される。
画像取得部12cが、撮像部11で撮像された画像を取得する処理を行い、位置検出部12dが、取得した画像からプライバシー情報を含む対象物(人間)2を検出(認識)し、撮像された画像上における対象物(人間)2の位置(座標又は領域)を検出する処理を行う。対象物2の検出(画像認識)、位置検出方法には、上記した2次元位置算出方法や3次元位置算出方法が適用される。位置検出部12dで検出された対象物2の位置データは、例えば、画像センサ装置10AのID(識別子)、画像取得日時等のデータと関連付けた状態で制御部14A内のRAM又は記憶部13Aに記憶される。制御部14A内のRAM又は記憶部13Aが、対象物2の位置データが記憶される位置データ記憶部として機能する。
制御部14A内のRAM又は記憶部13Aから読み出された対象物2の位置(座標又は領域)データが、例えば、画像センサ装置10AのID(識別子)、画像取得日時等のデータと関連付けた状態で合成画像生成部12eに送られる。
また、画像取得部12cで取得した画像は、例えば、画像センサ装置10AのID(識別子)、画像取得日時等のデータと関連付けた状態で実画像DB13aに記憶される。
背景画像生成部12fが、対象物2が含まれていない背景画像を生成する処理を行う。背景画像登録部13bが、生成された背景画像を背景画像DB13cに登録する処理を行う。
本実施の形態における背景画像の生成及び登録処理は、(1)撮像部11で撮像された複数の画像を平均処理して求めた平均画像を背景画像として登録する方法、(2)対象物2が存在しない条件下で撮像した画像を背景画像として登録する方法、(3)撮像した画像を画像処理により背景のみ表した絵画風画像やCG画像に変換した画像を背景画像として登録する方法などが適用される。
合成画像生成部12eが、制御部14A内のRAM又は記憶部13Aから読み出した対象物2の位置(座標)データと、背景画像DB13cから読み出した背景画像とを用い、該背景画像上における対象物2の検出位置に、対象物2のプライバシー情報が除去された模型、例えば対象物2のシルエットを表すCG画像(人形)を描画して合成画像を生成する処理を行う。生成された合成画像のデータは、例えば、画像センサ装置10AのIDや画像取得日時のデータと関連付けた状態で記憶部13Aに記憶され、その後、画像切替部14aに送られる。
位置検出部12dが対象物2の画像上の2次元座標を算出する場合、合成画像生成部12eは、背景画像に2次元的に模型を配置した合成画像を生成する処理を行う。
また、位置検出部12dが、1つの対象物2の位置検出を複数の画像センサ装置10Aを用いて3次元的に行う場合、合成画像生成部12eは、対象物2の3次元座標から画像上の2次元座標を復元し、復元した2次元座標に基づいて背景画像に2次元的に模型を配置した合成画像を生成する処理を行う。
画像切替部14aが、画像提供サーバ40に送信する画像として、画像取得部12cで取得した画像(実画像)と、合成画像生成部12eで生成された合成画像とを切り替える処理を行う。
画像送信部15aが、合成画像または実画像を画像提供サーバ40に送信する。また、画像送信部15aは、画像センサ装置10Aを管理するためのアプリケーションソフトウェア(内部アプリ)19が搭載された管理端末装置(図示せず)に、合成画像生成部12eで生成された合成画像や実画像DB13aに記憶されている画像を送信することも可能となっている。
[画像提供サーバ40]
画像提供サーバ40は、コンピュータを備えた電子機器であり、画像センサ装置10Aで生成された合成画像や撮像された実画像を利用者端末50に送信する処理などを実行する。
画像受信部42aが、画像センサ装置10Aから送信されてきた合成画像や実画像のデータを受信する処理を行い、受信した合成画像や実画像のデータが、合成画像データベース41a、実画像データベース41bに記憶される。
画像送信部42bが、合成画像を要求してきた利用者端末50に、合成画像DB41aから読み出した合成画像を送信する処理を行う。また、実画像を要求してきた利用者端末50に、所定の条件下で実画像DB41bから読み出した実画像を送信する処理を行う。
なお、実画像には対象物2のプライバシー情報が含まれている場合があるため、実画像は、画像センサ装置10A又は画像提供サーバ40が、対象物2に関する異常事態や緊急事態などの特別な条件が成立したと判断した場合にのみ利用者端末50に送信可能となっている。
図11は、実施の形態(2)に係るデータ提供システム1Aで実行される処理動作を説明するためのフローチャートである。本処理動作は、例えば、利用者端末50で外部アプリ51が起動された場合に開始される。
利用者端末50が、ステップS51において、外部アプリ51を起動する処理を行う。ステップS52において、合成画像の要求操作があったと判断した場合に、合成画像の要求信号を画像提供サーバ40に送信する処理を行う。合成画像の要求信号には、利用者端末50のID(識別子)、要求する合成画像に関する情報が含まれる。要求する合成画像に関する情報には、対象とする施設、場所、画像センサ装置10Aの情報、撮像日時・期間などの情報が含まれる。これら情報は、外部アプリ51で適宜入力できる他、予め設定できるようにしてもよい。
次に、画像提供サーバ40が、ステップS53において、利用者端末50から合成画像の要求信号を受信する処理を行う。次のステップS54では、受信した合成画像の要求信号に基づいて、画像センサ装置10Aに合成画像の要求信号を送信する処理を行う。
次に、画像センサ装置10Aが、ステップS55において、画像提供サーバ40から合成画像の要求信号を受信する処理を行う。次のステップS56では、受信した合成画像の要求信号に基づいて、取得対象として指定された撮像画像(実画像)を含むデータを取得する処理を行う。取得したデータには、実画像データ、撮像日時データ、画像センサ装置10AのIDなどが含まれ、これらデータが実画像DB13aに互いに関連付けた形式で記憶される。
次にステップS57では、取得した実画像から対象物2を検出(認識)する処理を行う。本処理は、先に説明した、図6のステップS12と同様の処理である。次のステップS58では、実画像中で検出された対象物2の位置を検出する処理を行う。本処理は、先に説明した、図6のステップS13と同様の処理である。続くステップS59では、検出された対象物2の位置データを制御部14A内のRAM又は記憶部13Aに記憶する。対象物2の位置データは、画像センサ装置10AのIDや撮像日時データなどの実画像に関するデータと関連付けた形式で記憶される。
次にステップS60では、背景画像DB13cから、実画像の撮像範囲に対応する背景画像を読み出す処理を行い、次のステップS61では、制御部14A内のRAM又は記憶部13Aから、対応する実画像で検出された対象物2の位置データを読み出す処理を行い、ステップS62に進む。
ステップS62では、ステップS61で読み出した対象物2の位置データと、ステップS60で読み出した背景画像とを用い、該背景画像に対象物2のプライバシー情報が除かれた対象物2の模型が描画された合成画像を生成する処理を行う。本処理は、先に説明した、図6のステップS14と同様の処理である。続くステップS63では、生成された合成画像を記憶部13Aに記憶する。生成された合成画像のデータは、画像センサ装置10AのIDや撮像日時データなどと関連付けた形式で記憶される。次にステップS64では、記憶部13Aから読み出した合成画像のデータを画像提供サーバ40に送信する処理を行う。
画像提供サーバ40では、ステップS65において、画像センサ装置10Aから送信されてきた合成画像のデータを受信する処理を行い、次のステップS66で、受信した合成画像のデータを合成画像DB41aに記憶する処理を行う。合成画像は、画像センサ装置10AのIDや撮像日時等のデータと関連付けた形式で記憶される。次のステップS67では、合成画像DB41aから合成画像のデータを読み出して利用者端末50に送信する処理を行う。
利用者端末50では、ステップS68において、画像提供サーバ40から送信されてきた合成画像のデータを受信する処理を行い、次のステップS69において、受信した合成画像のデータを記憶部(図示せず)に記憶する処理を行い、続くステップS70において、合成画像を表示部に表示する処理を行う。その後、ステップS71において、外部アプリ51で合成画像を用いたデータ処理が実行され、その後、ステップS72において、外部アプリ51の終了操作を検出すると終了処理を行い、その後、処理を終える。
上記実施の形態(2)に係るデータ提供システム1Aによれば、本実施の形態に係る画像認識処理方法を実行するコンピュータを備えた電子機器として機能する画像センサ装置10Aにより対象物2のプライバシーが適切に保護された合成画像が生成され、画像提供サーバ40が、合成画像を利用者端末50に提供することが可能となり、対象物2のプライバシーが適切に保護された合成画像を第3者に提供することで、該合成画像を用いた新たなサービスを外部アプリ51を通じて提供することができる。
上記実施の形態(2)に係る画像認識処理方法を実行する画像センサ装置10Aによれば、画像取得部12cから取得した画像から対象物2の位置が検出され、対象物2の位置データを用いて、背景画像上の対応する位置に模型3が描画された合成画像が生成される。したがって、実画像から位置が検出された対象物2は模型3として背景画像に描画されるので、対象物2のプライバシー情報を含まない合成画像を生成することができる。また、背景画像に対象物2の模型3を描画するので、撮像された画像毎にモザイク処理等を行う方法と比較して、前記合成画像を連続的に生成する際の画像センサ装置10Aにかかる処理負荷を削減することができる。また、実画像から対象物2の検出に失敗したとしても、利用者端末50に提供する画像に背景画像を用いるため、検出に失敗した対象物2が利用者端末50に提示されることなく、検出に失敗した対象物2のプライバシーも適切に保護することができ、対象物2のプライバシー情報が流出しないようにチェックするための複雑な処理が不要となり、簡素化された画像認識処理を実現できる。
図12は、実施の形態(3)に係るデータ提供システムの構成を説明するための概念図である。但し、図1に示したデータ提供システム1と同様の構成要素については、同符号を付し、その説明を省略する。
実施の形態(1)に係るデータ提供システム1では、画像提供サーバ40から利用者端末50に、画像処理サーバ30で生成された合成画像(背景画像に模型が合成された画像)を提供するように構成されていた。一方、実施の形態(3)に係るデータ提供システム1Bでは、画像処理サーバ30Aで生成された背景画像を事前に利用者端末50Aへ送信しておき、その後、利用者端末50Aからのデータ要求に応じて、対象物2の位置データを利用者端末50Aに送信し、利用者端末50Aが、受信した対象物2の位置データと背景画像とを用い、該背景画像上に模型が描画された合成画像を生成する構成となっている。すなわち、利用者端末50Aが、本実施の形態に係る画像認識処理方法を実行するコンピュータとして機能する。
データ提供システム1Bは、画像センサ装置10、ルーター20、画像処理サーバ30A、及び利用者端末50Aを含んで構成され、プライバシーが適切に保護された画像を利用者端末50Aに提供可能なセンサシステムとなっている。画像処理サーバ30Aに画像処理装置300A(図13)が装備されている。
画像センサ装置10がルーター20に接続され、ルーター20がネットワーク60を介して画像処理サーバ30Aに接続されている。画像処理サーバ30Aは、ネットワーク60を介して利用者端末50Aと接続可能となっている。なお、ルーター20は必須の構成ではなく、画像センサ装置10をネットワーク60に接続するようにしてもよい。
画像センサ装置10のハードウェア構成は、図2に示した構成と略同様である。画像処理サーバ30Aのハードウェア構成は、図3に示した画像処理サーバ30の構成と略同様であるが、画像処理部31A、制御部34Aが異なる機能を備えている。
図13は、画像センサ装置10、画像処理サーバ30A、及び利用者端末50Aが実行する処理を説明するための機能ブロック図である。図4に示した機能ブロック図と同一機能を有する構成部分には、同一符号を付しその説明を省略する。
[画像センサ装置10]
画像取得部12aが、撮像部11で撮像された画像を取得する処理を行い、対象検出部12bが、取得した画像からプライバシー情報を含む対象物(人間)2を検出(認識)する処理を行う。取得した画像や対象物検出(画像認識)結果のデータが、例えば、画像センサ装置10のID(識別子)及び画像取得日時等のデータと関連付けた状態で画像処理サーバ30Aに送信される。
[画像処理サーバ30A]
画像処理サーバ30Aに画像処理装置300Aが装備されている。画像処理装置300Aは、画像受信部33a、画像送信部33b、位置検出部31a、背景画像生成部31b、位置送信部31d、背景画像送信部31e、及び3D地図登録部32bを含んで構成され、これら各部は、画像処理サーバ30Aの画像処理部31A、記憶部32、通信処理部33、及び制御部34Aの機能により実現されている。
画像受信部33aが、画像センサ装置10から送信されてきた画像を受信する処理を行い、受信した画像(実画像)が実画像DB32aに記憶される。位置検出部31aが、撮像された画像上における検出対象物(人間)2の位置を検出する処理を行う。対象物2の位置検出方法には、上記した2次元位置算出方法や3次元位置算出方法が適用される。画像処理サーバ30Aが、利用者端末50Aからの要求信号を受信した場合に、位置送信部31dが、位置検出部31aで算出された対象物2の位置データを利用者端末50Aに送信する処理を行う。なお、対象検出部12bの機能を画像処理サーバ30Aに設ける構成としてもよい。
背景画像生成部31bが、背景DB32cに登録されている3D地図データ、パラメータDB32fに登録されている外部パラメータ及び内部パラメータ等を用いて、3D地図データから画像センサ装置10の撮像範囲に対応する背景画像を生成する処理を行う。生成された背景画像は、例えば、画像センサ装置10のIDと関連付けて背景画像DB32gに登録される。画像処理サーバ30Aが利用者端末50Aからサービス(外部アプリ)利用開始信号を受信した場合に、背景画像送信部31eが、背景画像生成部31bで生成された背景画像を背景画像DB32gから読み出し、背景画像に関連付けられた画像センサ装置10のID等とともに利用者端末50Aに送信する処理を行う。
[利用者端末50A]
利用者端末50Aは、コンピュータを備えた電子機器であり、汎用のパーソナルコンピュータ(PC)、スマートフォン、タブレット端末などの情報端末装置で構成されている。利用者端末50Aは、通信処理部52、記憶部53、制御部54、表示部55、及び操作部56を含んで構成されている。
通信処理部52は、背景画像受信部52a、位置受信部52b、及び実画像受信部52cとしての機能を備え、ネットワーク60を介して各種データの送受信等を行う通信インターフェースや通信制御回路を含んで構成されている。記憶部53は、通信処理部52で受信した各種データ等を記憶可能な半導体メモリなどで構成されている。表示部55は、液晶パネルなどの各種表示パネルを含んで構成されている。操作部56は、タッチパネル、ボタンスイッチ、又はキーボード等の入力装置で構成されている。制御部54は、これら各部を制御する機能の他、合成画像生成部54aとしての機能を有し、マイクロコンピュータ(CPU(プロセッサ)、RAM、ROM)を含んで構成されている。制御部54には、これら各部の処理を実行するためのプログラムが格納されている。これらプログラムは、コンピュータ読み取り可能な内蔵式の記録媒体の他、外付け式の記録媒体、例えば、着脱可能な半導体メモリなどに格納してもよい。
背景画像受信部52aが、画像処理サーバ30Aから送信されてきた背景画像を受信する処理を行う。サービス利用開始時等に受信した背景画像は記憶部53に記憶される。
位置受信部52bが、画像処理サーバ30Aから送信されてきた対象物2の位置データを受信する処理を行う。受信した対象物2の位置データは、例えば、画像センサ装置10のID(識別子)、画像取得日時等のデータと関連付けた状態で制御部54内のRAM又は記憶部53などに記憶される。制御部54内のRAM又は記憶部53が位置データ記憶部として機能する。
合成画像生成部54aが、制御部54内のRAM又は記憶部53から読み出した対象物2の位置データと、記憶部53から読み出した、対応する背景画像とを用い、背景画像上における対象物2の検出位置に、対象物2のプライバシー情報が除去された模型を描画して合成画像を生成する処理を行い、生成された合成画像が表示部55に表示可能となっている。
また、実画像受信部52cが、所定条件が成立した場合に、画像処理サーバ30Aから送信されてきた実画像を受信する処理を行い、受信した実画像が表示部55に表示可能となっている。なお、実画像には対象物2のプライバシー情報が含まれている場合があるため、実画像は、画像処理サーバ30Aが対象物2に関する異常事態や緊急事態などの特別な条件が成立したと判断した場合にのみ利用者端末50Aに提供可能となっている。
図14は、実施の形態(3)に係るデータ提供システム1Bで実行される処理動作を説明するためのフローチャートである。本処理動作は、例えば、利用者端末50Aで外部アプリ51が起動された場合に開始される。
利用者端末50Aが、ステップS81において、外部アプリ51を起動する処理を行う。ステップS82において、合成画像の要求操作があったと判断した場合に、合成画像の要求信号を画像処理サーバ30Aに送信する処理を行う。合成画像の要求信号には、利用者端末50AのID(識別子)、要求する合成画像に関する情報が含まれる。要求する合成画像に関する情報には、対象とする施設、場所、画像センサ装置10の情報、撮像日時・期間などの情報が含まれる。これら情報は、外部アプリ51で適宜入力できる他、予め設定できるようにしてもよい。
次に、画像処理サーバ30Aが、ステップS83において、利用者端末50Aから合成画像の要求信号を受信する処理を行う。次のステップS84では、受信した合成画像の要求信号に基づいて、画像センサ装置10に合成画像の要求信号を送信する処理を行い、ステップS85に進む。ステップS85では、背景画像DB32gから画像センサ装置10の撮像範囲に対応する背景画像のデータを読み出し、利用者端末50Aに送信する。
利用者端末50Aでは、ステップS86において、画像処理サーバ30Aから送信されてきた背景画像のデータを受信する処理を行い、次のステップS87では、受信した背景画像のデータを記憶部53に記憶する処理を行う。
一方、画像センサ装置10では、ステップS88において、画像処理サーバ30Aから合成画像の要求信号を受信する処理を行う。次のステップS89では、受信した合成画像の要求信号に基づいて、取得対象として指定された撮像画像(実画像)を含むデータを取得する処理を行う。取得したデータには、実画像データ、撮像日時データ、画像センサ装置10のIDなどが含まれ、これらデータが記憶部13に互いに関連付けた形式で記憶される。
続くステップS90では、取得した実画像から対象物2を検出(認識)する処理を行い、検出した対象物2の認識データを記憶部13に記憶する。本処理は、先に説明した、図6のステップS12と同様の処理である。次のステップS91では、記憶部13から実画像を含むデータと、対象物2の検出(認識)データとを読み出し、画像処理サーバ30Aに送信する処理を行う。
画像処理サーバ30Aでは、ステップS92において、画像センサ装置10から送信されてきたデータを受信する処理を行い、次のステップS93で、受信した実画像を含むデータを実画像DB32aに、対象物2の検出データを記憶部32に記憶する処理を行う。続くステップS94では、実画像中で検出(認識)された対象物2の位置を検出する処理を行う。本処理は、先に説明した、図6のステップS13と同様の処理である。
続くステップS95では、検出された対象物2の位置データを制御部34A内のRAM又は記憶部32に記憶する。対象物2の位置データは、画像センサ装置10のIDや撮像日時データなどの実画像に関するデータと関連付けた形式で記憶される。次のステップS96では、制御部34A内のRAM又は記憶部32から、実画像に対応する対象物2の位置データを読み出し、利用者端末50Aに送信する処理を行う。
利用者端末50Aでは、ステップS97において、画像処理サーバ30Aから送信されてきた対象物2の位置データを受信し、制御部54内のRAM又は記憶部53に記憶する処理を行い、ステップS98に進む。ステップS98では、記憶部53から、対応する背景画像のデータを読み出し、次のステップS99で、制御部54内のRAM又は記憶部53から対象物2の位置データを読み出す処理を行う。
続くステップS100では、読み出した対象物2の位置データと、読み出した背景画像とを用い、該背景画像に対象物2のプライバシー情報が除かれた対象物2の模型が描画された合成画像を生成する処理を行う。本処理は、先に説明した、図6のステップS14と同様の処理である。続くステップS101では、生成された合成画像を記憶部53に記憶する。生成された合成画像のデータは、画像センサ装置10のIDや撮像日時データなどと関連付けた形式で記憶される。
続くステップS102において、記憶部53から読み出した合成画像を表示部に表示する処理を行う。その後、ステップS103において、外部アプリ51で合成画像を用いたデータ処理が実行され、その後、ステップS104において、外部アプリ51の終了操作を検出すると終了処理を行い、その後、処理を終える。
図15は、利用者端末50Aの表示部55に表示された合成画像の表示例を示している。
表示部55に、背景画像P2に模型(人形)3が合成された合成画像が表示されている。合成画像はCG表示ボタン56aを操作すると表示されるようになっている。CG表示ボタン56aを操作すると、利用者端末50Aは、画像処理サーバ30Aに対象物2の位置データを要求し、該要求に応じて受信した対象物2の位置データと、事前取得した背景画像とを用いて合成画像を生成して表示部55に表示する処理を行う。
実画像表示ボタン56bは、通常時は機能しないが、例えば、模型3が倒れた状態で一定時間経過した場合など、画像処理サーバ30Aが対象物2に関する異常事態や緊急事態の発生を検出した場合に、実画像表示ボタン56bを点滅等させて利用者に警告するとともに、実画像表示ボタン56bの操作が受け付け可能になっている。実画像表示ボタン56bが操作されると、実画像受信部52cで受信した実画像が表示されるようになっている。
実施の形態(3)に係るデータ提供システム1Bによれば、画像処理サーバ30Aから利用者端末50Aに背景画像と、対象物2の位置データとを別々に送信して、利用者端末50Aで合成画像を生成させるので、プライバシーが適切に保護された前記合成画像を第3者に提供し、該合成画像を用いた新たなサービス提供の可能性を広げることができる。また、背景画像を利用者端末50Aに事前に送信して記憶させておき、検出された対象物2の位置データ等の模型3の描画に必要な情報のみをリアルタイムで利用者端末50Aに送信し、利用者端末50Aで背景画像と模型3とを合成した画像を生成するので、撮像された画像(実画像)をリアルタイムで利用者端末に送信するような構成と比較して、利用者端末50Aに転送するデータ量(データ転送量)を大幅に削減することができるシステムを構築することができる。
本発明は、上記した実施の形態に限定されるものではなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
(付記1)
少なくとも1つの撮像部で撮像された画像を少なくとも1つのプロセッサで処理する画像認識処理方法であって、
前記少なくとも1つのプロセッサによって、
前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップを含んでいる、画像認識処理方法。
(付記2)
少なくとも1つの撮像部で撮像された画像を少なくとも1つのプロセッサで処理する画像認識処理方法であって、
前記少なくとも1つのプロセッサによって、
前記少なくとも1つの撮像部で撮像された画像からプライバシー情報を含む対象物の位置を検出する処理を行うステップと、
前記検出された対象物の位置データと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを含んでいる、画像認識処理方法。
(付記3)
少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのプロセッサに実行させるための画像認識処理プログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記少なくとも1つのプロセッサに、
前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データが記憶された位置データ記憶部から前記対象物の位置データを読み出すステップと、
前記対象物が含まれていない背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、
前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させるための画像認識処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
(付記4)
少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのプロセッサに実行させるための画像認識処理プログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記少なくとも1つのプロセッサに、
前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データが記憶された位置データ記憶部から前記対象物の位置データを読み出すステップと、
前記対象物が含まれていない背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、
前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させるための画像認識処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
(付記5)
少なくとも1つのコンピュータがネットワークを介して別のコンピュータにデータを提供するデータ提供システムであって、
前記少なくとも1つのコンピュータが、記憶部と、該記憶部に接続された少なくとも1つのプロセッサとを有し、
前記記憶部は、
少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データを記憶する位置データ記憶部と、
前記対象物が含まれていない背景画像を記憶する背景画像記憶部とを有し、
前記少なくとも1つのプロセッサは、
前記位置データ記憶部から読み出した前記対象物の位置データを前記別のコンピュータに送信し、
前記背景画像記憶部から読み出した前記背景画像を前記別のコンピュータに送信するように構成され、
前記別のコンピュータは、少なくとも1つのプロセッサを有し、
該少なくとも1つのプロセッサは、
前記少なくとも1つのコンピュータから受信した前記対象物の位置データと前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するように構成されている、データ提供システム。
1、1A、1B データ提供システム
10、10A 画像センサ装置
100 画像処理装置
12a、12c 画像取得部
12b 対象検出部
12d 位置検出部
12e 合成画像生成部
13b 背景画像登録部
14a 画像切替部
15a 画像送信部
20 ルーター
30、30A 画像処理サーバ
300、300A 画像処理装置
31a 位置検出部
31b 背景画像生成部
31c 合成画像生成部
32b 3D地図登録部
40 画像提供サーバ
42a 画像受信部
42b 画像送信部
50、50A 利用者端末
60 ネットワーク

Claims (26)

  1. 少なくとも1つの撮像部で撮像された画像を少なくとも1つのコンピュータで処理する画像認識処理方法であって、
    前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップを含んでいることを特徴とする画像認識処理方法。
  2. 少なくとも1つの撮像部で撮像された画像を少なくとも1つのコンピュータで処理する画像認識処理方法であって、
    前記少なくとも1つの撮像部で撮像された画像からプライバシー情報を含む対象物の位置を検出する処理を行うステップと、
    検出された前記対象物の位置データと、前記対象物が含まれていない背景画像が記憶された背景画像記憶部から読み出した前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを含んでいることを特徴とする画像認識処理方法。
  3. 前記背景画像が、前記撮像された画像の撮像範囲に対応したものであることを特徴とする請求項1又は請求項2記載の画像認識処理方法。
  4. 前記合成画像は、前記背景画像に前記対象物の模型が、前記撮像された画像における前記対象物の位置状態が再現されるように描画されたものであることを特徴とする請求項1〜3のいずれかの項に記載の画像認識処理方法。
  5. 前記背景画像が、3次元背景データから生成されたものであることを特徴とする請求項1〜4のいずれかの項に記載の画像認識処理方法。
  6. 前記背景画像が、前記撮像された複数の画像を平均処理して得られた平均画像から生成されたものであることを特徴とする請求項1〜4のいずれかの項に記載の画像認識処理方法。
  7. 前記対象物の位置データが、前記撮像された画像から検出された前記対象物の3次元位置データから復元された、前記撮像された画像上における2次元位置データであることを特徴とする請求項1〜6のいずれかの項に記載の画像認識処理方法。
  8. 前記対象物の位置データが、前記撮像された画像から検出された前記対象物の3次元位置データであり、
    前記背景画像が、3次元背景データであり、
    前記合成画像を生成するステップが、
    前記対象物の3次元位置データを用い、前記3次元背景データ上の前記対象物の3次元位置に前記模型を描画し、該模型が描画された前記3次元背景データから前記模型を含む前記撮像された画像領域を切り出した画像を前記合成画像として生成するものであることを特徴とする請求項1又は請求項2記載の画像認識処理方法。
  9. 少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのコンピュータに実行させるための画像認識処理プログラムであって、
    前記少なくとも1つのコンピュータに、
    前記少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データが記憶された位置データ記憶部から前記対象物の位置データを読み出すステップと、
    前記対象物が含まれていない背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、
    前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させることを特徴とする画像認識処理プログラム。
  10. 少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのコンピュータに実行させるための画像認識処理プログラムであって、
    前記少なくとも1つのコンピュータに、
    前記少なくとも1つの撮像部で撮像された画像からプライバシー情報を含む対象物の位置を検出する処理を行うステップと、
    該検出した対象物の位置データを位置データ記憶部に記憶するステップと、
    前記位置データ記憶部から前記対象物の位置データを読み出すステップと、
    前記対象物が含まれていない背景画像が記憶された背景画像記憶部から前記背景画像を読み出すステップと、
    前記読み出した対象物の位置データと、前記読み出した背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成するステップとを実行させることを特徴とする画像認識処理プログラム。
  11. 少なくとも1つの撮像部で撮像された画像の処理を少なくとも1つのコンピュータに実行させるための画像認識処理プログラムであって、
    請求項3〜8のいずれかの項に記載の画像認識処理方法を、前記少なくとも1つのコンピュータに実行させることを特徴とする画像認識処理プログラム。
  12. 請求項9〜11のいずれかの項に記載の画像認識処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
  13. 請求項9〜11のいずれかの項に記載の画像認識処理プログラムを読み込み実行することを特徴とするプロセッサ。
  14. 請求項13記載のプロセッサが搭載されていることを特徴とする電子機器。
  15. ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行されるデータ提供方法であって、
    前記少なくとも1つのコンピュータが、
    請求項1〜8のいずれかの項に記載の画像認識処理方法における前記合成画像を生成するステップで生成された前記合成画像を別のコンピュータに送信するステップを含んでいることを特徴とするデータ提供方法。
  16. 前記撮像された画像を必要とする所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信するステップをさらに含んでいることを特徴とする請求項15記載のデータ提供方法。
  17. ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行されるデータ提供方法であって、
    前記少なくとも1つのコンピュータが、
    請求項1〜8のいずれかの項に記載の画像認識処理方法における前記合成画像を生成するステップで生成された前記合成画像を表示部に表示するステップを含んでいることを特徴とするデータ提供方法。
  18. 前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示するステップをさらに含んでいることを特徴とする請求項17記載のデータ提供方法。
  19. 少なくとも1つのコンピュータがネットワークを介して別のコンピュータにデータを提供するデータ提供システムであって、
    前記少なくとも1つのコンピュータが、
    少なくとも1つの撮像部で撮像された画像から検出されたプライバシー情報を含む対象物の位置データを前記別のコンピュータに送信する位置データ送信部と、
    前記対象物が含まれていない背景画像を前記別のコンピュータに送信する背景画像送信部とを備え、
    前記別のコンピュータに、
    前記対象物の位置データと前記背景画像とを用い、該背景画像に前記対象物のプライバシー情報が除かれた前記対象物の模型が描画された合成画像を生成させることを特徴とするデータ提供システム。
  20. ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行させるためのデータ提供プログラムであって、
    前記少なくとも1つのコンピュータに、
    請求項9〜11のいずれかの項に記載の画像認識処理プログラムにおける前記合成画像を生成するステップで生成された前記合成画像を別のコンピュータに送信するステップを実行させることを特徴とするデータ提供プログラム。
  21. 前記少なくとも1つのコンピュータに、
    前記撮像された画像を必要とする所定の条件が成立した場合に前記撮像された画像を前記別のコンピュータに送信するステップをさらに実行させることを特徴とする請求項20記載のデータ提供プログラム。
  22. ネットワークを介して通信可能な少なくとも1つのコンピュータを含むシステムで実行させるためのデータ提供プログラムであって、
    前記少なくとも1つのコンピュータに、
    請求項9〜11のいずれかの項に記載の画像認識処理プログラムにおける前記合成画像を生成するステップで生成された前記合成画像を表示部に表示するステップを実行させることを特徴とするデータ提供プログラム。
  23. 前記少なくとも1つのコンピュータに、
    前記合成画像と前記撮像された画像とを切り替えて前記表示部に表示するステップをさらに実行させることを特徴とする請求項22記載のデータ提供プログラム。
  24. 請求項20〜23のいずれかの項に記載のデータ提供プログラムを記録したコンピュータ読み取り可能な記録媒体。
  25. 請求項20〜23のいずれかの項に記載のデータ提供プログラムを読み込み実行することを特徴とするプロセッサ。
  26. 請求項25記載のプロセッサが搭載されていることを特徴とする電子機器。
JP2016221355A 2016-11-14 2016-11-14 画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ及び電子機器 Active JP6699518B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016221355A JP6699518B2 (ja) 2016-11-14 2016-11-14 画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ及び電子機器
PCT/JP2017/033626 WO2018088035A1 (ja) 2016-11-14 2017-09-19 画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016221355A JP6699518B2 (ja) 2016-11-14 2016-11-14 画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ及び電子機器

Publications (3)

Publication Number Publication Date
JP2018082234A true JP2018082234A (ja) 2018-05-24
JP2018082234A5 JP2018082234A5 (ja) 2019-04-18
JP6699518B2 JP6699518B2 (ja) 2020-05-27

Family

ID=62110536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016221355A Active JP6699518B2 (ja) 2016-11-14 2016-11-14 画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ及び電子機器

Country Status (2)

Country Link
JP (1) JP6699518B2 (ja)
WO (1) WO2018088035A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020202750A1 (ja) * 2019-04-05 2020-10-08 株式会社 Preferred Networks 情報処理システム、ロボット、遠隔操作装置、情報処理方法及びプログラム
CN112040145A (zh) * 2020-08-28 2020-12-04 维沃移动通信有限公司 图像处理方法、装置及电子设备

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020141212A (ja) * 2019-02-27 2020-09-03 沖電気工業株式会社 画像処理システム、画像処理装置、画像処理プログラム、画像処理方法、及び表示装置
CN115221547A (zh) * 2021-04-21 2022-10-21 Oppo广东移动通信有限公司 图像处理方法及装置、电子设备、计算机存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006217161A (ja) * 2005-02-02 2006-08-17 Advanced Telecommunication Research Institute International 画像撮影システム
JP2009225398A (ja) * 2008-03-19 2009-10-01 Secom Co Ltd 画像配信システム
WO2015136796A1 (ja) * 2014-03-10 2015-09-17 ソニー株式会社 情報処理装置、記憶媒体、および制御方法
JP2016163075A (ja) * 2015-02-26 2016-09-05 キヤノン株式会社 映像処理装置、映像処理方法、およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006217161A (ja) * 2005-02-02 2006-08-17 Advanced Telecommunication Research Institute International 画像撮影システム
JP2009225398A (ja) * 2008-03-19 2009-10-01 Secom Co Ltd 画像配信システム
WO2015136796A1 (ja) * 2014-03-10 2015-09-17 ソニー株式会社 情報処理装置、記憶媒体、および制御方法
JP2016163075A (ja) * 2015-02-26 2016-09-05 キヤノン株式会社 映像処理装置、映像処理方法、およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020202750A1 (ja) * 2019-04-05 2020-10-08 株式会社 Preferred Networks 情報処理システム、ロボット、遠隔操作装置、情報処理方法及びプログラム
CN112040145A (zh) * 2020-08-28 2020-12-04 维沃移动通信有限公司 图像处理方法、装置及电子设备
CN112040145B (zh) * 2020-08-28 2023-04-07 维沃移动通信有限公司 图像处理方法、装置及电子设备

Also Published As

Publication number Publication date
WO2018088035A1 (ja) 2018-05-17
JP6699518B2 (ja) 2020-05-27

Similar Documents

Publication Publication Date Title
WO2018088035A1 (ja) 画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ、及び電子機器
US10049281B2 (en) Methods and systems for measuring human interaction
JP2017509939A (ja) 疎及び密マッピング情報を含むマップを生成するための方法及びシステム
WO2018200090A1 (en) Data synchronization from multiple three-dimensional cameras
CN109743621A (zh) 多vr/ar设备协同系统及协同方法
JPWO2018181248A1 (ja) 撮像システムおよび校正方法
JP2018160219A (ja) 移動経路予測装置、及び移動経路予測方法
KR101181967B1 (ko) 고유식별 정보를 이용한 3차원 실시간 거리뷰시스템
JP2017527145A (ja) 認識されたオブジェクトを用いてセンサのキャリブレーションを行うための方法およびシステム
US20160205355A1 (en) Monitoring installation and method for presenting a monitored area
US20220264004A1 (en) Generation of an image that is devoid of a person from images that include the person
CN107330974B (zh) 商品展示方法、装置及移动设备
JP6640294B1 (ja) 複合現実システム、プログラム、携帯端末装置、及び方法
US20230306636A1 (en) Object three-dimensional localizations in images or videos
WO2020186856A1 (zh) 一种三维室内导航系统及其实现方法
JP2018139052A (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP5801690B2 (ja) 画像処理装置、画像処理方法
TW201822034A (zh) 收集系統、終端用程式以及收集方法
KR20210112551A (ko) 휴대용 단말기를 이용한 건설 분야 시공 관리 시스템 및 방법
JP2017184025A (ja) 通信端末、画像通信システム、画像送信方法、画像表示方法、及びプログラム
JP6650998B2 (ja) 鏡、画像表示方法及びプログラム
JP2021184115A (ja) 情報処理装置、情報処理方法、及び、プログラム
US20180241916A1 (en) 3d space rendering system with multi-camera image depth
JP4027294B2 (ja) 移動体検出装置、移動体検出方法及び移動体検出プログラム
EP3962118A1 (en) Interaction method employing optical communication apparatus, and electronic device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190311

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200413

R150 Certificate of patent or registration of utility model

Ref document number: 6699518

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250