JP2017046324A - ユーザ端末、物体認識サーバ、通知方法及びユーザ端末用プログラム - Google Patents
ユーザ端末、物体認識サーバ、通知方法及びユーザ端末用プログラム Download PDFInfo
- Publication number
- JP2017046324A JP2017046324A JP2015169754A JP2015169754A JP2017046324A JP 2017046324 A JP2017046324 A JP 2017046324A JP 2015169754 A JP2015169754 A JP 2015169754A JP 2015169754 A JP2015169754 A JP 2015169754A JP 2017046324 A JP2017046324 A JP 2017046324A
- Authority
- JP
- Japan
- Prior art keywords
- user terminal
- object recognition
- boundary line
- user
- operation target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Telephonic Communication Services (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ユーザが任意に設定した地点に、対象物が移動したことを通知することにより、ユーザの利便性を向上させたユーザ端末、物体認識サーバ、通知方法及びユーザ端末用プログラムを提供する。【解決手段】カメラ200で撮影された動作対象の動きについて、ユーザに通知するユーザ端末100は、ユーザの画面操作により、動作対象の特定を受け付け、特定された動作対象の画像認識を行い、物体認識データベースを参照し、特徴量を抽出することで、動作対象の物体認識を行い、ユーザの画面操作により、所定の境界線の入力を受け付け、物体認識した動作対象が、境界線に接触した場合に、通知を行う。【選択図】図1
Description
本発明は、カメラで撮影された動作対象の動きについて、ユーザに通知するユーザ端末、物体認識サーバ、通知方法及びユーザ端末用プログラムに関する。
近年、カメラ等の撮影装置で撮影された動画像や静止画像等の画像を画像解析し、画像中の物体を認識することが行われている。
例えば、特許文献1のように、対象物が有する発光部の発光に基づいて、対象物を認識することにより、対象物を識別することが開示されている。
特許文献1の構成では、対象物のID情報と、発光により認識する対象物の画像とを関連付けることにより、画像上での対象物の位置の認識を行っているが、対象物を発光させることや、ID情報の取得に必要があり、利便性が低かった。
また、特許文献1の構成では、画像中における移動体端末の位置を認識することができるものの、ユーザが任意に設定した位置に来た場合に、通知をするものでもなかったため、利便性が低かった。
そこで、本発明は、ユーザが任意に設定した地点に、対象物が移動したことを通知する点に着目した。
本発明の目的は、ユーザが任意に設定した地点に、対象物が移動したことを通知することにより、ユーザの利便性を向上させたユーザ端末、物体認識サーバ、通知方法及びユーザ端末用プログラムを提供することを目的とする。
本発明では、以下のような解決手段を提供する。
第1の特徴に係る発明は、カメラで撮影された動作対象の動きについて、ユーザに通知するユーザ端末であって、
前記ユーザの画面操作により、前記動作対象の特定を受け付ける動作対象受付手段と、
特定された前記動作対象の画像認識を行い、物体認識データベースを参照し、特徴量を抽出することで、動作対象の物体認識を行う物体認識手段と、
前記ユーザの画面操作により、所定の境界線の入力を受け付ける境界線受付手段と、
物体認識した前記動作対象が、前記境界線に接触した場合に、通知を行う通知手段と、
を備えることを特徴とするユーザ端末を提供する。
前記ユーザの画面操作により、前記動作対象の特定を受け付ける動作対象受付手段と、
特定された前記動作対象の画像認識を行い、物体認識データベースを参照し、特徴量を抽出することで、動作対象の物体認識を行う物体認識手段と、
前記ユーザの画面操作により、所定の境界線の入力を受け付ける境界線受付手段と、
物体認識した前記動作対象が、前記境界線に接触した場合に、通知を行う通知手段と、
を備えることを特徴とするユーザ端末を提供する。
第1の特徴に係る発明によれば、カメラで撮影された動作対象の動きについて、ユーザに通知するユーザ端末は、前記ユーザの画面操作により、前記動作対象の特定を受け付け、特定された前記動作対象の画像認識を行い、物体認識データベースを参照し、特徴量を抽出することで、動作対象の物体認識を行い、前記ユーザの画面操作により、所定の境界線の入力を受け付け、物体認識した前記動作対象が、前記境界線に接触した場合に、通知を行う。
ここで、第1の特徴に係る発明は、ユーザ端末のカテゴリであるが、通知方法、ユーザ端末用プログラム等の他のカテゴリにおいても、そのカテゴリに応じた同様の作用・効果を発揮する。
第2の特徴に係る発明は、受け付けた前記境界線を変更する境界線変更手段と、
をさらに備え、
前記通知手段は、物体認識した前記動作対象が、変更した前記境界線に接触した場合に、通知を行う、ことを特徴とする第1の特徴に係る発明であるユーザ端末を提供する。
をさらに備え、
前記通知手段は、物体認識した前記動作対象が、変更した前記境界線に接触した場合に、通知を行う、ことを特徴とする第1の特徴に係る発明であるユーザ端末を提供する。
第2の特徴に係る発明によれば、第1の特徴に係る発明であるユーザ端末は、受け付けた前記境界線を変更し、物体認識した前記動作対象が、変更した前記境界線に接触した場合に、通知を行う。
第3の特徴に係る発明は、前記境界線受付手段は、所定の境界線の入力を複数箇所受け付け、
前記通知手段は、物体認識した前記動作対象が、受け付けた複数箇所の前記境界線のいずれか又は複数箇所に接触した場合に、通知を行う、ことを特徴とする第1又は2の特徴に係る発明であるユーザ端末を提供する。
前記通知手段は、物体認識した前記動作対象が、受け付けた複数箇所の前記境界線のいずれか又は複数箇所に接触した場合に、通知を行う、ことを特徴とする第1又は2の特徴に係る発明であるユーザ端末を提供する。
第3の特徴に係る発明によれば、第1又は第2の特徴に係る発明であるユーザ端末は、所定の境界線の入力を複数箇所受け付け、物体認識した前記動作対象が、受け付けた複数箇所の前記境界線のいずれか又は複数箇所に接触した場合に、通知を行う、ことを特徴とする。
第4の特徴に係る発明は、カメラで撮影された動作対象の動きについて、ユーザに通知するユーザ端末と通信可能に接続された物体認識サーバであって、
物体の識別子と、当該物体の特徴量とを対応付けて記憶する物体認識データベースと、
前記ユーザ端末が特定した動作対象物に関する情報を受信する動作対象物情報受信手段と、
前記受信した情報に基づいて、前記物体認識サーバを参照し、特徴量を抽出することにより、物体の識別子を取得し、動作対象の物体認識を行う物体認識手段と、
前記物体認識を行った物体の識別子を、前記ユーザ端末に送信する識別子送信手段と、
を備えることを特徴とする物体認識サーバを提供する。
物体の識別子と、当該物体の特徴量とを対応付けて記憶する物体認識データベースと、
前記ユーザ端末が特定した動作対象物に関する情報を受信する動作対象物情報受信手段と、
前記受信した情報に基づいて、前記物体認識サーバを参照し、特徴量を抽出することにより、物体の識別子を取得し、動作対象の物体認識を行う物体認識手段と、
前記物体認識を行った物体の識別子を、前記ユーザ端末に送信する識別子送信手段と、
を備えることを特徴とする物体認識サーバを提供する。
第4の特徴に係る発明によれば、カメラで撮影された動作対象の動きについて、ユーザに通知するユーザ端末と通信可能に接続された物体認識サーバは、物体の識別子と、当該物体の特徴量とを対応付けて記憶する物体認識データベースを有し、前記ユーザ端末が特定した動作対象物に関する情報を受信し、前記受信した情報に基づいて、前記物体認識サーバを参照し、特徴量を抽出することにより、物体の識別子を取得し、動作対象の物体認識を行い、前記物体認識を行った物体の識別子を、前記ユーザ端末に送信する。
第5の特徴に係る発明は、カメラで撮影された動作対象の動きについて、ユーザに通知する通知方法であって、
前記ユーザの画面操作により、前記動作対象の特定を受け付けるステップと、
特定された前記動作対象の画像認識を行い、物体認識データベースを参照し、特徴量を抽出することで、動作対象の物体認識を行うステップと、
前記ユーザの画面操作により、所定の境界線の入力を受け付けるステップと、
物体認識した前記動作対象が、前記境界線に接触した場合に、通知を行うステップと、
を備えることを特徴とする通知方法を提供する。
前記ユーザの画面操作により、前記動作対象の特定を受け付けるステップと、
特定された前記動作対象の画像認識を行い、物体認識データベースを参照し、特徴量を抽出することで、動作対象の物体認識を行うステップと、
前記ユーザの画面操作により、所定の境界線の入力を受け付けるステップと、
物体認識した前記動作対象が、前記境界線に接触した場合に、通知を行うステップと、
を備えることを特徴とする通知方法を提供する。
第6の特徴に係る発明は、カメラで撮影された動作対象の動きについて、ユーザに通知するユーザ端末に、
前記ユーザの画面操作により、前記動作対象の特定を受け付けるステップ、
特定された前記動作対象の画像認識を行い、物体認識データベースを参照し、特徴量を抽出することで、動作対象の物体認識を行うステップ、
前記ユーザの画面操作により、所定の境界線の入力を受け付けるステップ、
物体認識した前記動作対象が、前記境界線に接触した場合に、通知を行うステップ、
を実行させるためのユーザ端末用プログラムを提供する。
前記ユーザの画面操作により、前記動作対象の特定を受け付けるステップ、
特定された前記動作対象の画像認識を行い、物体認識データベースを参照し、特徴量を抽出することで、動作対象の物体認識を行うステップ、
前記ユーザの画面操作により、所定の境界線の入力を受け付けるステップ、
物体認識した前記動作対象が、前記境界線に接触した場合に、通知を行うステップ、
を実行させるためのユーザ端末用プログラムを提供する。
本発明によれば、ユーザが任意に設定した地点に、対象物が移動したことを通知することにより、ユーザの利便性を向上させたユーザ端末、物体認識サーバ、通知方法及びユーザ端末用プログラムを提供することが可能となる。
以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
[物体認識システム1の概要]
図1は、本発明の好適な第1の実施形態である物体認識システム1の概要を説明するための図である。物体認識システム1は、ユーザ端末100、物体認識データベース101及びカメラ200から構成される。なお、第1の実施形態において、ユーザ端末100は、物体認識データベース101を有する。
図1は、本発明の好適な第1の実施形態である物体認識システム1の概要を説明するための図である。物体認識システム1は、ユーザ端末100、物体認識データベース101及びカメラ200から構成される。なお、第1の実施形態において、ユーザ端末100は、物体認識データベース101を有する。
物体認識システム1において、ユーザ端末100は、物体認識データベース101とLANやインターネット等の公衆回線網を通じて通信可能となっていても良いし、物体認識データベース101を自身に有していても良い。また、ユーザ端末100は、カメラ20とLANや公衆回線網を通じて通信可能となっている。
はじめに、ユーザ端末100は、物体認識用アプリケーションを起動し、カメラ200が撮影する動画像や静止画像等の画像を取得する(ステップS01)。ユーザ端末100は、取得した画像を自身に表示する。
次に、ユーザ端末100は、表示した画像に含まれる認識させたい動作対象を指定する対象線を入力する(ステップS02)。ステップS02において、ユーザ端末100は、ユーザがタップ操作することにより、対象線の入力を受け付ける。対象線とは、例えば、動作対象を円で囲った線や、直線で囲った線等の、動作対象を他と区別するための線を示す。なお、対象線は、線ではなく、点や矢印といった、動作対象を指定するための別の態様であっても良い。
ユーザ端末100は、対象線で囲われた範囲を画像認識し、この対象線内の画像の特徴量を抽出し、抽出した特徴量に基づいて、物体認識データベース101を参照し、対象線で囲われた動作対象の物体認識を実行する(ステップS03)。
次に、ユーザ端末100は、表示した画像への境界線の入力を受け付ける(ステップS04)。ステップS04において、ユーザ端末100は、ユーザがタップ操作することにより、境界線の入力を受け付ける。境界線とは、例えば、画像中の特定の領域と他の領域とを仕切るための直線や、曲線、円、破線等の線を示す。なお、境界線は、線ではなく、点や矢印といった、画像中の特定の領域を示すための別の態様であっても良い。
ユーザ端末100は、カメラ200が撮影する画像を定期的に取得し(ステップS05)、ステップS03において認識した動作対象が、ステップS04において受け付けた境界線に接触したか否かを判断し、接触した場合に、通知を行う。
以上が、第1の実施形態における物体認識システム1の概要である。
図2は、本発明の好適な第2の実施形態である物体認識システム1の概要を説明するための図である。物体認識システム1は、物体認識サーバ10、ユーザ端末100、物体認識データベース101及びカメラ200から構成される。なお、第2の実施形態において、物体認識サーバ10は、物体認識データベース101を有する。
物体認識システム1において、ユーザ端末100は、物体認識サーバ10とLANやインターネット等の公衆回線網を通じて通信可能となっている。また、ユーザ端末100は、カメラ200とLANや公衆回線網を通じて通信可能となっている。
はじめに、ユーザ端末100は、物体認識用アプリケーションを起動し、カメラ200が撮影する動画像や静止画像等の画像を取得する(ステップS10)。ユーザ端末100は、取得した画像を自身に表示する。
次に、ユーザ端末100は、表示した画像に含まれる認識させた動作対象を指定する対象線を入力する(ステップS11)。ステップS11において、ユーザ端末100は、ユーザがタップ操作することにより、対象線の入力を受け付ける。対象線とは、例えば、動作対象を円で囲った線や、直線で囲った線等の、動作対象を他と区別するための線を示す。なお、対象線は、線ではなく、点や矢印といった、動作対象を指定するための別の態様であっても良い。
ユーザ端末100は、対象線で囲われた範囲の画像の画像データを抽出し、この画像データを物体認識サーバ10に送信する(ステップS12)。物体認識サーバ10は、この画像データの特徴量を抽出し、抽出した特徴量に基づいて、物体認識データベース101を参照し、この画像データに含まれる動作対象の物体認識を実行する。
物体認識サーバ10は、物体認識を実行した動作対象の動作対象データをユーザ端末100に送信する(ステップS13)。ステップS13において、物体認識サーバ10は、動作対象データとして、物体認識した動作対象の識別子を送信する。
次に、ユーザ端末100は、表示した画像への境界線の入力を受け付ける(ステップS14)。ステップS14において、ユーザ端末100は、ユーザがタップ操作することにより、境界線の入力を受け付ける。境界線とは、例えば、画像中の特定の領域と他の領域とを仕切るための直線や、曲線、円、破線等の線を示す。なお、境界線は、線ではなく、点や矢印といった、画像中の特定の領域を示すための別の態様であっても良い。
ユーザ端末100は、カメラ200が撮影する画像を定期的に取得し(ステップS15)、物体認識サーバ10が認識した動作対象が、ステップS14において受け付けた境界線に接触したか否かを判断し、接触した場合に、通知を行う。
以上が、第2の実施形態における物体認識システム1の概要である。
[第1の実施形態]
図3は、本発明の好適な第1の実施形態である物体認識システム1のシステム構成図である。物体認識システム1は、ユーザ端末100、カメラ200、公衆回線網3(インターネット網や第3世代、第4世代通信網)、物体認識データベース101から構成される。
図3は、本発明の好適な第1の実施形態である物体認識システム1のシステム構成図である。物体認識システム1は、ユーザ端末100、カメラ200、公衆回線網3(インターネット網や第3世代、第4世代通信網)、物体認識データベース101から構成される。
ユーザ端末100は、データ通信を行うことが可能な家庭用又は業務用の電化製品であって、携帯して使用されることが期待される電化製品である。例えば、携帯電話、携帯情報端末に加え、ネットブック端末、スレート端末、電子書籍端末、携帯型音楽プレーヤ等の情報家電を含む。
カメラ200は、ユーザ端末100とデータ通信を行うことが可能な、ウェブカメラ等の動画像や静止画像等の画像を撮影可能な撮影装置である。カメラ200は、撮影する画像をユーザ端末100に送信する。
物体認識データベース101は、後述する物体の識別子と、その特徴量とを対応付けたデータベースである。本実施形態においては、ユーザ端末100は、物体認識データベース101を有する。
[各機能の説明]
図5に基づいて、各装置の構成について説明する。
図5に基づいて、各装置の構成について説明する。
ユーザ端末100は、制御部110として、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備え、通信部120として、他の機器と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWiFi(Wireless Fidelity)対応デバイスを備える。
また、ユーザ端末100は、後述する物体認識データベース101を記憶する記憶部130として、ハードディスクや半導体メモリ、記録媒体、メモリカード等によるデータのストレージ部を備え、入出力部140として、制御部110で制御したデータや画像を出力表示する表示部と、ユーザからの入力を受け付けるタッチパネルやキーボード、マウス等に加え、時刻を取得する時計機能、位置情報取得デバイスや、高度、通信強度、傾き、加速度等を取得する各種センサを備える。
ユーザ端末100において、制御部110が所定のプログラムを読み込むことで、通信部120と協働して、画像取得モジュール150、撮影画像受信モジュール151、物体認識データ取得モジュール152を実現する。また、ユーザ端末100において、制御部110が所定のプログラムを読み込むことで、記憶部130と協働して、データベース記憶モジュール160、動作対象記憶モジュール161、境界線記憶モジュール162を実現する。また、ユーザ端末100において、制御部110が所定のプロプラムを読み込むことで、入出力部140と協働して、入力受付モジュール170、特徴量抽出モジュール171、通知生成モジュール172を実現する。
カメラ200は、ユーザ端末100と同様に、制御部210として、CPU、RAM、ROM等を備え、通信部220として、他の機器と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWiFi対応デバイスを備える。
また、カメラ200は、動画像や静止画像等の画像を撮影する撮影部230として、撮影素子やレンズ等を備える。
カメラ200において、制御部210が所定のプログラムを読み込むことで、通信部220と協働して、画像取得要求受信モジュール240、画像送信モジュール241を実現する。また、カメラ200において、制御部210が所定のプログラムを読み込むことで、撮影部230と協働して、撮影モジュール250を実現する。
[物体認識処理]
図7は、第1の実施形態におけるユーザ端末100及びカメラ200が実行する物体認識処理のフローチャートである。上述した各装置のモジュールが行う処理について、本処理に併せて説明する。
図7は、第1の実施形態におけるユーザ端末100及びカメラ200が実行する物体認識処理のフローチャートである。上述した各装置のモジュールが行う処理について、本処理に併せて説明する。
はじめに、ユーザ端末100の入力受付モジュール170は、動画像や静止画像等の画像を取得する入力を受け付けたか否かを判断する(ステップS20)。ステップS20において、入力受付モジュール170は、ユーザが物体認識用アプリケーションを起動し、画像を取得する指示を入力したか否かを判断する。ステップS20において、入力受付モジュール170は、画像を取得する指示の入力が行われていないと判断した場合(ステップS20 NO)、入力を受け付けるまで、本処理を繰り返す。
一方、ステップS20において、ユーザ端末100の入力受付モジュール170は、画像を取得する指示の入力が行われたと判断した場合(ステップS20 YES)、ユーザ端末100の画像取得モジュール150は、カメラ200に画像の取得要求である画像取得要求を送信する(ステップS21)。ステップS21において、ユーザ端末100が送信する画像取得要求には、撮影地点、撮影時間、画像種別等の各種情報が含まれる。
カメラ200の画像取得要求受信モジュール240は、ユーザ端末100が送信した画像取得要求を受信する。カメラ200の撮影モジュール250は、画像取得要求に含まれる撮影地点を撮影し、カメラ200の撮影画像送信モジュール241は、撮影した画像を撮影画像データとしてユーザ端末100に送信する(ステップS22)。
ユーザ端末100の撮影画像受信モジュール151は、カメラ200が送信した撮影画像データを受信する。ユーザ端末100の入力受付モジュール170は、受信した撮影画像データに基づいて、図11に示す撮影画像を表示する(ステップS23)。
ユーザ端末100の入力受付モジュール170は、表示した撮影画像に含まれる認識させる動作対象102を指定する対象線103の入力が行われたか否かを判断する(ステップS24)。ステップS24において、ユーザ端末100の入力受付モジュール170は、ユーザがタップ操作を実行することにより、対象線103の入力を受け付ける。対象線103とは、例えば、動作対象102を円で囲った線や、直線で囲った線等の認識する動作対象を他と区別するための線を示す。なお、対象線103は、線に限らず、点や矢印等の動作対象102を指定するための別の態様であっても良い。
ステップS24において、ユーザ端末100の入力受付モジュール170は、対象線103の入力が行われていないと判断した場合(ステップS24 NO)、対象線103の入力を受け付けるまで本処理を繰り返す。一方、ステップS24において、入力受付モジュール170は、図12に示すように、対象線103の入力が行われたと判断した場合(ステップS24 YES)、ユーザ端末100の特徴量抽出モジュール171は、この対象線103で囲われた範囲を画像認識し、この対象線103内の動作対象102の特徴量を抽出する(ステップS25)。
ユーザ端末100の物体認識データ取得モジュール152は、ステップS25において抽出した動作対象102の特徴量に基づいて、図13に示す物体認識データベース101を参照し、対象線103で囲われた動作対象102の物体認識を実行する(ステップS26)。
[物体認識データベース]
図13は、ユーザ端末100のデータベース記憶モジュール160が記憶する物体認識データベース101を示す図である。データベース記憶モジュール160は、動作対象102の識別子として、「犬」、「猫」、「人」等を記憶する。また、データベース記憶モジュール160は、各識別子の特徴量を記憶する。データベース記憶モジュール160は、動作対象102の識別子と、特徴量とを対応付けてデータベースとして記憶する。
図13は、ユーザ端末100のデータベース記憶モジュール160が記憶する物体認識データベース101を示す図である。データベース記憶モジュール160は、動作対象102の識別子として、「犬」、「猫」、「人」等を記憶する。また、データベース記憶モジュール160は、各識別子の特徴量を記憶する。データベース記憶モジュール160は、動作対象102の識別子と、特徴量とを対応付けてデータベースとして記憶する。
ステップS26において、ユーザ端末100の物体認識データ取得モジュール152は、抽出した動作対象102の特徴量に基づいて、物体認識データベース101において、この特徴量に対応付けられた識別子を参照し、この識別子を取得することにより、物体認識を実行する。
ユーザ端末100の動作対象記憶モジュール161は、取得した識別子を動作対象として記憶する(ステップS27)。
次に、ユーザ端末100の入力受付モジュール170は、表示した撮影画像に境界線104の入力が行われたか否かを判断する(ステップS28)。ステップS28において、ユーザ端末100の入力受付モジュール170は、ユーザがタップ操作を実行することにより、境界線104の入力を受け付ける。境界線104とは、例えば、画像中の特定の領域と他の領域を仕切る直線や、曲線、円、破線等の仕切り線を示す。なお、境界線104は、線に限らず、点や矢印や面等の画像中の特定の領域を仕切るための別の態様であっても良い。
ステップS28において、ユーザ端末100の入力受付モジュール170は、境界線104の入力が行われていないと判断した場合(ステップS28 NO)、境界線104の入力を受け付けるまで本処理を繰り返す。一方、ステップS28において、入力受付モジュール170は、図14に示すように、境界線104の入力を受け付けたと判断した場合(ステップS28 YES)、入力を受け付けた境界線104を画像上に表示するとともに、境界線記憶モジュール162は、境界線104の位置を記憶する(ステップS29)。ステップS29において、境界線記憶モジュール162は、境界線104の位置を、自身の表示部に基づく位置や、取得したGPS情報に基づく位置や、その他の方法により記憶する。
ユーザ端末100の画像取得モジュール150は、上述したステップS21〜S23と同様の処理を行うことにより、カメラ200が撮影する撮影画像データを取得し、ユーザ端末100の入力受付モジュール170は、取得した撮影画像を表示する(ステップS30)。
ユーザ端末100の入力受付モジュール170は、取得した撮影画像データに含まれる動作対象102が、ステップS29で入力を受け付けた境界線104に接触したか否かを判断する(ステップS31)。ステップS31において、入力受付モジュール170は、表示する動作対象102が、境界線104の位置にあるか否かを判断することにより、動作対象102が境界線104と接触したか否かを判断する。ステップS31において、入力受付モジュール170は、動作対象102が、境界線104に接触していないと判断した場合(ステップS31 NO)、本処理を繰り返す。
一方、ステップS31において、ユーザ端末100の入力受付モジュール170は、図15に示すように、動作対象102が、境界線104に接触したと判断した場合(ステップS31 YES)、ユーザ端末100の通知生成モジュール172は、動作対象102が、境界線104に接触したことを示す通知を生成する(ステップS32)。
ユーザ端末100の入力受付モジュール170は、ステップS32において生成した通知を、図16に示す通知105として表示する(ステップS33)。なお、ステップS32において、ユーザ端末100は、生成した通知を他の端末等に送信し、他の端末が通知を表示しても良い。
なお、上述の実施形態において、ユーザ端末100の入力受付モジュール170は、一つの対象線103の入力を受け付けているが、複数の対象線103の入力を受け付けても良い。また、入力受付モジュール170は、一つの境界線104の入力を受け付けているが、複数の境界線104の入力を受け付けても良い。この場合、動作対象102が複数の境界線104のいずれかに接触した場合に、通知を生成するようにしても良いし、全ての境界線104に接触した場合に、通知を生成するようにしても良い。
また、入力受付モジュール170は、連続する線として境界線104の入力を受け付けるだけでなく、断続する境界線104の入力を受け付け、境界線104が存在する箇所に動作対象102が接触した場合に、ユーザ端末100の通知生成モジュール172が、通知を生成し、境界線104が存在しない箇所に動作対象102が接触した場合に、通知生成モジュール172は通知を生成しないようにしても良い。また、複数の対象線102で指定した各々の動作対象102のいずれかが境界線104に接触した場合に、通知を生成しても良いし、各々の動作対象の全てが境界線104に接触した場合に、通知を生成しても良い。
以上が、第1の実施形態における物体認識処理である。
[変更処理]
図8は、ユーザ端末100が実行する変更処理のフローチャートである。上述した各モジュールが実行する処理について併せて説明する。本処理は、上述した物体認識処理におけるステップS25以降の処理のいずれかのタイミングで実行されれば良い。
図8は、ユーザ端末100が実行する変更処理のフローチャートである。上述した各モジュールが実行する処理について併せて説明する。本処理は、上述した物体認識処理におけるステップS25以降の処理のいずれかのタイミングで実行されれば良い。
はじめに、ユーザ端末100の入力受付モジュール170は、動作対象102の変更を行う入力を受け付けたか否かを判断する(ステップS40)。ステップS40において、入力受付モジュール170は、図17に示す動作対象変更通知106の入力を受け付けたか否かを判断する。ステップS40において、入力受付モジュール170は動作対象102の変更の入力を受け付けていないと判断した場合(ステップS40 NO)、後述する境界線104の変更の入力を受け付けたか否かを判断する(ステップS42)。
一方、ステップS40において、ユーザ端末100の入力受付モジュール170は、動作対象102の変更の入力を受け付けたと判断した場合(ステップS40 YES)、カメラ200から取得する撮影画像データに基づいて撮影画像を表示し、動作対象102の入力を再度受け付ける(ステップS41)。ステップS41において、ユーザ端末100は、上述したステップS25〜S27の処理を再度実行する。また、ユーザ端末100の動作対象記憶モジュール161は、以前に記憶した動作対象102に関する情報を削除する。なお、ステップS41において、動作対象記憶モジュール161は、情報を削除するのではなく、今回新たに入力を受け付けた動作対象102の情報を追加して記憶しても良い。
ステップS42において、ユーザ端末100の入力受付モジュール170は、図18に示す境界線変更通知107の入力を受け付けたか否かを判断する。ステップS42において、入力受付モジュール170は、境界線104の変更の入力を受け付けていないと判断した場合(ステップS42 NO)、本処理を終了する。
一方、ステップS42において、ユーザ端末100の入力受付モジュール170は、境界線104の変更の入力を受け付けたと判断した場合(ステップS42 YES)、カメラ200から取得する撮影画像データに基づいて撮影画像を表示し、境界線104の入力を再度受け付ける(ステップS43)。ステップS43におちえ、ユーザ端末100は、上述したステップS29の処理を再度実行する。また、ユーザ端末100の境界線記憶モジュール162は、以前に記憶した境界線104に関する情報を削除する。なお、ステップS43において、境界線記憶モジュール162は、情報を削除するのではなく、今回新たに入力を受け付けた境界線104の情報を追加して記憶しても良い。またステップS43において、境界線記憶モジュール162は、特定の境界線104のみを変更する入力を受け付けた場合、該当する境界線104の情報のみを削除し、今回新たに入力を受け付けた境界線104の情報を記憶しても良い。また、境界線記憶モジュール162は、今回入力された境界線104と重複する境界線104の情報を上書き記憶しても良い。
ユーザ端末100の通知生成モジュール172は、動作対象102が変更された場合、この変更された動作対象102が、境界線104に接触した場合に、その旨を示す通知を生成する。また、通知生成モジュール172は、境界線104が変更された場合、この変更された境界線104に、動作対象102が接触した場合に、その旨を示す通知を生成する。
[第2の実施形態]
図4は、本発明の好適な第2の実施形態である物体認識システム1のシステム構成図である。なお、上述した第1の実施形態と同様の装置、モジュールに関しては、同様の符号を付して、その詳細な説明は省略する。物体認識システム1は、物体認識サーバ10、物体認識データベース101、ユーザ端末100、カメラ200、公衆回線網3から構成される。上述した第1の実施形態との相違点としては、第1の実施形態では、ユーザ端末100が物体認識データベース101を有していたことに対して、本実施形態では、物体認識サーバ10が物体認識データベース101を有することである。
図4は、本発明の好適な第2の実施形態である物体認識システム1のシステム構成図である。なお、上述した第1の実施形態と同様の装置、モジュールに関しては、同様の符号を付して、その詳細な説明は省略する。物体認識システム1は、物体認識サーバ10、物体認識データベース101、ユーザ端末100、カメラ200、公衆回線網3から構成される。上述した第1の実施形態との相違点としては、第1の実施形態では、ユーザ端末100が物体認識データベース101を有していたことに対して、本実施形態では、物体認識サーバ10が物体認識データベース101を有することである。
ユーザ端末100及びカメラ200は、上述した第1の実施形態と同様であるため、その詳細は省略する。
物体認識サーバ10は、後述する物体認識データベース101を有するサーバ装置である。
[各機能の説明]
図6に基づいて、各装置の構成について説明する。
図6に基づいて、各装置の構成について説明する。
ユーザ端末100は、上述した制御部110、通信部120、記憶部130、入出力部140を備える。
ユーザ端末100において、制御部110が所定のプログラムを読み込むことで、通信部120と協働して、画像取得モジュール150、撮影画像受信モジュール151、物体認識データ取得モジュール152を実現する。また、ユーザ端末100において、制御部110が所定のプログラムを読み込むことで、記憶部130と協働して、動作対象記憶モジュール161、境界線記憶モジュール162を実現する。また、ユーザ端末100において、制御部110が所定のプロプラムを読み込むことで、入出力部140と協働して、入力受付モジュール170、通知生成モジュール172を実現する。
カメラ200は、上述した制御部210、通信部220、撮影部230を備える。
カメラ200において、制御部210が所定のプログラムを読み込むことで、通信部220と協働して、画像取得要求受信モジュール240、画像送信モジュール241を実現する。また、カメラ200において、制御部210が所定のプログラムを読み込むことで、撮影部230と協働して、撮影モジュール250を実現する。
物体認識サーバ10は、ユーザ端末100と同様に、制御部11として、CPU、RAM、ROM等を備え、通信部12として、他の機器と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWiFi対応デバイスを備える。
また、物体認識サーバ10は、後述する物体認識データベース101を記憶する記憶部13として、ハードディスクや半導体メモリ、記録媒体、メモリカード等によるデータのストレージ部を備える。
物体認識サーバ10において、制御部11が所定のプログラムを読み込むことで、通信部12と協働して、画像データ受信モジュール20、特徴量抽出モジュール21、物体認識データ送信モジュール22を実現する。また、物体認識サーバ10において、制御部11が所定のプログラムを読み込むことで、記憶部13と協働して、データベース記憶モジュール30、物体認識データ取得モジュール31を実現する。
[物体認識処理]
図9は、第2の実施形態における物体認識サーバ10、ユーザ端末100及びカメラ200が実行する物体認識処理のフローチャートである。上述した各装置のモジュールが行う処理について、本処理に併せて説明する。また、第1の実施形態と同様の処理については、その詳細な説明は省略する。
図9は、第2の実施形態における物体認識サーバ10、ユーザ端末100及びカメラ200が実行する物体認識処理のフローチャートである。上述した各装置のモジュールが行う処理について、本処理に併せて説明する。また、第1の実施形態と同様の処理については、その詳細な説明は省略する。
はじめに、ユーザ端末100の入力受付モジュール170は、動画像や静止画像等の画像を取得する入力を受け付けたか否かを判断する(ステップS50)。ステップS50の処理は、上述したステップS20の処理を同様である。ステップS50において、入力受付モジュール170は、画像を取得する指示の入力が行われていないと判断した場合(ステップS50 NO)、入力を受け付けるまで、本処理を繰り返す。
一方、ステップS50において、ユーザ端末100の入力受付モジュール170は、画像を取得する指示の入力が行われたと判断した場合(ステップS50 YES)、ユーザ端末100の画像取得モジュール150は、カメラ200に画像の取得要求である画像取得要求を送信する(ステップS51)。ステップS51の処理は、上述したステップS21の処理と同様である。
カメラ200の画像取得要求受信モジュール240は、ユーザ端末100が送信した画像取得要求を受信する。カメラ200の撮影モジュール250は、画像取得要求に含まれる撮影地点を撮影し、カメラ200の撮影画像送信モジュール241は、撮影した画像を撮影画像データとしてユーザ端末100に送信する(ステップS52)。ステップS52の処理は、上述したステップS22の処理と同様である。
ユーザ端末100の撮影画像受信モジュール151は、カメラ200が送信した撮影画像データを受信する。ユーザ端末100の入力受付モジュール170は、受信した撮影画像データに基づいて、図11に示す撮影画像を表示する(ステップS53)。ステップS53の処理は、上述したステップS23の処理と同様である。
ユーザ端末100の入力受付モジュール170は、表示した撮影画像に含まれる認識させる動作対象102を指定する対象線103の入力が行われたか否かを判断する(ステップS54)。ステップS54の処理は、上述したステップS24の処理と同様である。
ステップS54において、ユーザ端末100の入力受付モジュール170は、対象線103の入力が行われていないと判断した場合(ステップS54 NO)、対象線103の入力を受け付けるまで本処理を繰り返す。一方、ステップS54において、入力受付モジュール170は、図12に示すように、対象線103の入力が行われたと判断した場合(ステップS54 YES)、ユーザ端末100の物体認識データ取得モジュール152は、この対象線103で囲われた領域の画像データを物体認識サーバ10に送信する(ステップS55)。
物体認識サーバ10の画像データ受信モジュール20は、ユーザ端末100が送信した画像データを受信する。物体認識サーバ10の特徴量抽出モジュール21は、受信した画像データに基づいて、この画像データに含まれる動作対象102の特徴量を抽出する(ステップS56)
物体認識サーバ10の物体認識データ取得モジュール31は、ステップS56において抽出した動作対象102の特徴量に基づいて、図13に示す物体認識データベースを参照し、対象線103で囲われた領域の動作対象102の物体認識を実行する(ステップS57)
[物体認識データベース]
図13は、物体認識サーバ10のデータベース記憶モジュール30が記憶する物体認識データベース101を示す図である。物体認識データベース101は、上述した第1の実施形態と同様であるため、詳細は省略する。
図13は、物体認識サーバ10のデータベース記憶モジュール30が記憶する物体認識データベース101を示す図である。物体認識データベース101は、上述した第1の実施形態と同様であるため、詳細は省略する。
ステップS57において、物体認識サーバ10の物体認識データ取得モジュール31は、物体認識サーバ10の特徴量抽出モジュール21が抽出した動作対象の102の特徴量に基づいて、物体認識データベース101において、この特徴量に対応付けられた識別子を参照し、この識別子を取得することにより、物体認識を実行する。
物体認識サーバ10の物体認識データ送信モジュール22は、ステップS57において取得した識別子の識別子データをユーザ端末100に送信する(ステップS58)。
ユーザ端末100の物体認識データ取得モジュール152は、物体認識サーバ10が送信した識別子データを受信する。ユーザ端末100の動作対象記憶モジュール161は、取得した識別子を動作対象として記憶する(ステップS59)。
次に、ユーザ端末100の入力受付モジュール170は、表示した撮影画像に境界線104の入力が行われたか否かを判断する(ステップS60)。ステップS60の処理は、上述したステップS28の処理と同様であるため、詳細は省略する。
ステップS60において、ユーザ端末100の入力受付モジュール170は、境界線104の入力が行われていないと判断した場合(ステップS60 NO)、境界線104の入力を受け付けるまで本処理を繰り返す。一方、ステップS60において、入力受付モジュール170は、図14に示すように、境界線104の入力を受け付けたと判断した場合(ステップS60 YES)、入力を受け付けた境界線104を画像上に表示するとともに、境界線記憶モジュール162は、境界線104の位置を記憶する(ステップS61)。ステップS61の処理は、上述したステップS29の処理と同様であるため、詳細は省略する。
ユーザ端末100の画像取得モジュール150は、上述したステップS21〜S23と同様の処理を行うことにより、カメラ200が撮影する撮影画像データを取得し、ユーザ端末100の入力受付モジュール170は、取得した撮影画像を表示する(ステップS62)。
ユーザ端末100の入力受付モジュール170は、取得した撮影画像データに含まれる動作対象102が、ステップS60で入力を受け付けた境界線104に接触したか否かを判断する(ステップS63)。ステップS63において、入力受付モジュール170は、動作対象102が、境界線104に接触していないと判断した場合(ステップS63 NO)、本処理を繰り返す。
一方、ステップS63において、ユーザ端末100の入力受付モジュール170は、図15に示すように、動作対象102が、境界線104に接触したと判断した場合(ステップS63 YES)、ユーザ端末100の通知生成モジュール172は、動作対象102が、境界線104に接触したことを示す通知を生成する(ステップS64)。
ユーザ端末100の入力受付モジュール170は、ステップS64において生成した通知を、図16に示す通知105として表示する(ステップS65)。
なお、上述の実施形態において、ユーザ端末100の入力受付モジュール170は、一つの対象線103の入力を受け付けているが、複数の対象線103の入力を受け付けても良い。また、入力受付モジュール170は、一つの境界線104の入力を受け付けているが、複数の境界線104の入力を受け付けても良い。この場合、動作対象102が複数の境界線104のいずれかに接触した場合に、通知を生成するようにしても良いし、全ての境界線104に接触した場合に、通知を生成するようにしても良い。
また、入力受付モジュール170は、連続する線として境界線104の入力を受け付けるだけでなく、断続する境界線104の入力を受け付け、境界線104が存在する箇所に動作対象102が接触した場合に、ユーザ端末100の通知生成モジュール172が、通知を生成し、境界線104が存在しない箇所に動作対象102が接触した場合に、通知生成モジュール172は通知を生成しないようにしても良い。
以上が、第2の実施形態における物体認識処理である。
[変更処理]
図10は、物体認識サーバ10が実行する変更処理のフローチャートである。上述した各装置のモジュールが実行する処理について併せて説明する。本処理は、上述した物体認識処理におけるステップS55以降の処理のいずれかのタイミングで実行されれば良い。
図10は、物体認識サーバ10が実行する変更処理のフローチャートである。上述した各装置のモジュールが実行する処理について併せて説明する。本処理は、上述した物体認識処理におけるステップS55以降の処理のいずれかのタイミングで実行されれば良い。
はじめに、ユーザ端末100の入力受付モジュール170は、動作対象102の変更を行う入力を受け付けたか否かを判断する(ステップS70)。ステップS70の処理は、上述したステップS40の処理と同様であるため、詳細は省略する。ステップS70において、入力受付モジュール170は動作対象102の変更の入力を受け付けていないと判断した場合(ステップS70 NO)、後述する境界線104の変更の入力を受け付けたか否かを判断する(ステップS72)。
一方、ステップS70において、ユーザ端末100の入力受付モジュール170は、動作対象102の変更の入力を受け付けたと判断した場合(ステップS70 YES)、カメラ200から取得する撮影画像データに基づいて撮影画像を表示し、動作対象102の入力を再度受け付ける(ステップS71)。ステップS71において、ユーザ端末100及び物体認識サーバ10は、上述したステップS55〜59の処理を再度実行する。また、ユーザ端末100の動作対象記憶モジュール161は、以前に記憶した動作対象102に関する情報を削除する。なお、ステップS71において、動作対象記憶モジュール161は、情報を削除するのではなく、今回新たに入力を受け付けた動作対象102の情報を追加して記憶しても良い。
ステップS72において、ユーザ端末100の入力受付モジュール170は、図18に示す境界線変更通知107の入力を受け付けたか否かを判断する。ステップS72において、入力受付モジュール170は、境界線104の変更の入力を受け付けていないと判断した場合(ステップS72 NO)、本処理を終了する。
一方、ステップS72において、ユーザ端末100の入力受付モジュール170は、境界線104の変更の入力を受け付けたと判断した場合(ステップS72 YES)、カメラ200から取得する撮影画像データに基づいて撮影画像を表示し、境界線104の入力を再度受け付ける(ステップS73)。ステップS73の処理は、上述したステップS43の処理と同様であるため、詳細は省略する。
ユーザ端末100の通知生成モジュール172は、動作対象102が変更された場合、この変更された動作対象102が、境界線104に接触した場合に、その旨を示す通知を生成する。また、通知生成モジュール172は、境界線104が変更された場合、この変更された境界線104に、動作対象102が接触した場合に、その旨を示す通知を生成する。
以上が、第2の実施形態における変更処理である。
上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、フレキシブルディスク、CD(CD−ROMなど)、DVD(DVD−ROM、DVD−RAMなど)等のコンピュータ読取可能な記録媒体に記録された形態で提供される。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記憶装置又は外部記憶装置に転送し記憶して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記憶装置(記録媒体)に予め記録しておき、その記憶装置から通信回線を介してコンピュータに提供するようにしてもよい。
以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
1 物体認識システム、10 物体認識サーバ、100 ユーザ端末、200 カメラ
Claims (6)
- カメラで撮影された動作対象の動きについて、ユーザに通知するユーザ端末であって、
前記ユーザの画面操作により、前記動作対象の特定を受け付ける動作対象受付手段と、
特定された前記動作対象の画像認識を行い、物体認識データベースを参照し、特徴量を抽出することで、動作対象の物体認識を行う物体認識手段と、
前記ユーザの画面操作により、所定の境界線の入力を受け付ける境界線受付手段と、
物体認識した前記動作対象が、前記境界線に接触した場合に、通知を行う通知手段と、
を備えることを特徴とするユーザ端末。 - 受け付けた前記境界線を変更する境界線変更手段と、
をさらに備え、
前記通知手段は、物体認識した前記動作対象が、変更した前記境界線に接触した場合に、通知を行う、ことを特徴とする請求項1に記載のユーザ端末。 - 前記境界線受付手段は、所定の境界線の入力を複数箇所受け付け、
前記通知手段は、物体認識した前記動作対象が、受け付けた複数箇所の前記境界線のいずれか又は複数箇所に接触した場合に、通知を行う、ことを特徴とする請求項1又は2に記載のユーザ端末。 - カメラで撮影された動作対象の動きについて、ユーザに通知するユーザ端末と通信可能に接続された物体認識サーバであって、
物体の識別子と、当該物体の特徴量とを対応付けて記憶する物体認識データベースと、
前記ユーザ端末が特定した動作対象物に関する情報を受信する動作対象物情報受信手段と、
前記受信した情報に基づいて、前記物体認識サーバを参照し、特徴量を抽出することにより、物体の識別子を取得し、動作対象の物体認識を行う物体認識手段と、
前記物体認識を行った物体の識別子を、前記ユーザ端末に送信する識別子送信手段と、
を備えることを特徴とする物体認識サーバ。 - カメラで撮影された動作対象の動きについて、ユーザに通知する通知方法であって、
前記ユーザの画面操作により、前記動作対象の特定を受け付けるステップと、
特定された前記動作対象の画像認識を行い、物体認識データベースを参照し、特徴量を抽出することで、動作対象の物体認識を行うステップと、
前記ユーザの画面操作により、所定の境界線の入力を受け付けるステップと、
物体認識した前記動作対象が、前記境界線に接触した場合に、通知を行うステップと、
を備えることを特徴とする通知方法。 - カメラで撮影された動作対象の動きについてユーザに通知するユーザ端末に、
前記ユーザの画面操作により、前記動作対象の特定を受け付けるステップ、
特定された前記動作対象の画像認識を行い、物体認識データベースを参照し、特徴量を抽出することで、動作対象の物体認識を行うステップ、
前記ユーザの画面操作により、所定の境界線の入力を受け付けるステップ、
物体認識した前記動作対象が、前記境界線に接触した場合に、通知を行うステップ、
を実行させるためのユーザ端末用プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015169754A JP2017046324A (ja) | 2015-08-28 | 2015-08-28 | ユーザ端末、物体認識サーバ、通知方法及びユーザ端末用プログラム |
US15/162,693 US20170061643A1 (en) | 2015-08-28 | 2016-05-24 | User terminal, object recognition server, and method for notification |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015169754A JP2017046324A (ja) | 2015-08-28 | 2015-08-28 | ユーザ端末、物体認識サーバ、通知方法及びユーザ端末用プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017046324A true JP2017046324A (ja) | 2017-03-02 |
Family
ID=58096481
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015169754A Pending JP2017046324A (ja) | 2015-08-28 | 2015-08-28 | ユーザ端末、物体認識サーバ、通知方法及びユーザ端末用プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20170061643A1 (ja) |
JP (1) | JP2017046324A (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11455801B2 (en) * | 2017-12-05 | 2022-09-27 | Avigilon Corporation | Generating signatures within a network that includes a plurality of computing devices of varying processing capabilities |
US10997760B2 (en) * | 2018-08-31 | 2021-05-04 | Snap Inc. | Augmented reality anthropomorphization system |
US20230410512A1 (en) * | 2020-11-04 | 2023-12-21 | Astoria Solutions Pte Ltd. | Autonomous safety violation detection system through virtual fencing |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004355551A (ja) * | 2003-05-30 | 2004-12-16 | Matsushita Electric Works Ltd | 保護システム |
JP2008016898A (ja) * | 2006-06-30 | 2008-01-24 | Sony Corp | 監視装置、監視システム及びフィルタ設定方法 |
JP2008033542A (ja) * | 2006-07-27 | 2008-02-14 | Sony Corp | 監視装置、フィルタ較正方法及びフィルタ較正プログラム |
JP2012135281A (ja) * | 2010-12-27 | 2012-07-19 | Takenaka Komuten Co Ltd | 獣害防止装置およびプログラム |
JP2012203668A (ja) * | 2011-03-25 | 2012-10-22 | Sony Corp | 情報処理装置、物体認識方法、プログラム及び端末装置 |
JP2013186478A (ja) * | 2012-03-05 | 2013-09-19 | Denso It Laboratory Inc | 画像処理システム及び画像処理方法 |
JP2015002553A (ja) * | 2013-06-18 | 2015-01-05 | キヤノン株式会社 | 情報処理システムおよびその制御方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8391611B2 (en) * | 2009-10-21 | 2013-03-05 | Sony Ericsson Mobile Communications Ab | Methods, systems and computer program products for identifying descriptors for an image |
US8681223B2 (en) * | 2011-06-24 | 2014-03-25 | Honeywell International Inc. | Video motion detection, analysis and threat detection device and method |
US20130335635A1 (en) * | 2012-03-22 | 2013-12-19 | Bernard Ghanem | Video Analysis Based on Sparse Registration and Multiple Domain Tracking |
-
2015
- 2015-08-28 JP JP2015169754A patent/JP2017046324A/ja active Pending
-
2016
- 2016-05-24 US US15/162,693 patent/US20170061643A1/en not_active Abandoned
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004355551A (ja) * | 2003-05-30 | 2004-12-16 | Matsushita Electric Works Ltd | 保護システム |
JP2008016898A (ja) * | 2006-06-30 | 2008-01-24 | Sony Corp | 監視装置、監視システム及びフィルタ設定方法 |
JP2008033542A (ja) * | 2006-07-27 | 2008-02-14 | Sony Corp | 監視装置、フィルタ較正方法及びフィルタ較正プログラム |
JP2012135281A (ja) * | 2010-12-27 | 2012-07-19 | Takenaka Komuten Co Ltd | 獣害防止装置およびプログラム |
JP2012203668A (ja) * | 2011-03-25 | 2012-10-22 | Sony Corp | 情報処理装置、物体認識方法、プログラム及び端末装置 |
JP2013186478A (ja) * | 2012-03-05 | 2013-09-19 | Denso It Laboratory Inc | 画像処理システム及び画像処理方法 |
JP2015002553A (ja) * | 2013-06-18 | 2015-01-05 | キヤノン株式会社 | 情報処理システムおよびその制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US20170061643A1 (en) | 2017-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102498725B (zh) | 自动确定操作模式的移动设备 | |
KR102124017B1 (ko) | 영상 촬영 장치, 사용자 단말 장치 및 영상 촬영 장치와 사용자 단말 장치의 통신 연결 방법 | |
US20120086792A1 (en) | Image identification and sharing on mobile devices | |
KR101790655B1 (ko) | 버스 정보 조회, 피드백 방법, 모바일 단말 및 서버 | |
CN110503023A (zh) | 活体检测方法及装置、电子设备和存储介质 | |
KR20110096500A (ko) | 위치 기반의 통신 방법 및 시스템 | |
JP6223735B2 (ja) | 捜索制御装置、捜索制御方法、及びプログラム | |
US11392680B2 (en) | Authentication and generation of information for authentication | |
CN110800314B (zh) | 计算机系统、远程操作通知方法以及记录介质 | |
CN106027872A (zh) | 相机控制方法及相机控制系统 | |
JP2014053667A (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム | |
JP2017046324A (ja) | ユーザ端末、物体認識サーバ、通知方法及びユーザ端末用プログラム | |
US9396211B2 (en) | Method and device for providing information using barcode | |
CN104239842A (zh) | 一种实现视觉识别的方法、装置和系统 | |
US10430145B2 (en) | Remote terminal, method of remote instruction | |
JPWO2015182059A1 (ja) | 情報処理システム、制御方法およびコンピュータプログラム | |
CN107810641B (zh) | 用于在终端上提供附加内容的方法以及使用该方法的终端 | |
KR102172588B1 (ko) | 전시관 관람객을 위한 동영상 앨범 제작 방법 및 시스템 | |
JP6195960B2 (ja) | 遠隔指示方法及び遠隔端末用プログラム | |
JP6909022B2 (ja) | プログラム、情報端末、情報表示方法及び情報表示システム | |
KR20150106621A (ko) | 단말, 서비스 제공 장치, 그 제어 방법, 컴퓨터 프로그램이 기록된 기록 매체 및 이미지 검색 시스템 | |
KR20200016111A (ko) | 오디오 정보 수집장치 및 그의 제어방법 | |
JP2019159865A (ja) | 制御プログラム、制御方法、及び情報処理装置 | |
JP2019105905A (ja) | 名刺情報登録装置、名刺情報登録方法、およびプログラム | |
CN105872011A (zh) | 用于使能设备间信息交换的系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170523 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20171114 |