JP2016004362A - 情報付与方法及び情報付与装置 - Google Patents
情報付与方法及び情報付与装置 Download PDFInfo
- Publication number
- JP2016004362A JP2016004362A JP2014123472A JP2014123472A JP2016004362A JP 2016004362 A JP2016004362 A JP 2016004362A JP 2014123472 A JP2014123472 A JP 2014123472A JP 2014123472 A JP2014123472 A JP 2014123472A JP 2016004362 A JP2016004362 A JP 2016004362A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- user
- unit
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Studio Devices (AREA)
Abstract
【課題】画像へ付加情報を付与する際に利用者に生じる負担を軽減する情報付与方法及び装置を提供する。
【解決手段】利用者が撮像する第1画像とほぼ同時に、第1画像とは異なる方向の第2画像を撮像し、第2画像から対象物を検出し、検出した対象物の特徴量を抽出し、抽出した特徴量から利用者情報を取得し、取得した利用者情報を利用者に確認して、確認結果のフィードバックを得るとともに、フィードバックにより特徴量データベース202を更新するとともに、確認した利用者情報を第1画像に付加情報として付与する。
【選択図】図1
【解決手段】利用者が撮像する第1画像とほぼ同時に、第1画像とは異なる方向の第2画像を撮像し、第2画像から対象物を検出し、検出した対象物の特徴量を抽出し、抽出した特徴量から利用者情報を取得し、取得した利用者情報を利用者に確認して、確認結果のフィードバックを得るとともに、フィードバックにより特徴量データベース202を更新するとともに、確認した利用者情報を第1画像に付加情報として付与する。
【選択図】図1
Description
本発明は、画像に対して付加情報を付与する技術に関する。
従来から、カメラ等で撮像した画像を分類、整理、検索等するために、画像の付加情報が利用されている。画像の付加情報には、手動追加情報、位置情報及び人物情報がある。
手動追加情報は、利用者の手作業によって画像に付与される情報である。利用者は、撮像した画像を直接観察する作業、被写体や撮像場所を判別する作業、画像へ付加情報をタグとして付与する作業等を手動で行う。利用者は、個人の趣味趣向に合わせて付加情報を画像へ付与し、細かく分類し管理する。
位置情報は、撮像が行われた場所を表す。位置情報は、例えばGPS(Global Positioning System)センサによって取得される。このようなGPSセンサは、例えばカメラに備えられてもよい。この場合、GPSセンサによって取得された位置情報は、撮像された画像へ直接付与されてもよい(例えば非特許文献1参照)。
位置情報は、撮像が行われた場所を表す。位置情報は、例えばGPS(Global Positioning System)センサによって取得される。このようなGPSセンサは、例えばカメラに備えられてもよい。この場合、GPSセンサによって取得された位置情報は、撮像された画像へ直接付与されてもよい(例えば非特許文献1参照)。
人物情報は、画像中に撮像されている人物に関する情報である。人物情報は、例えば顔認識技術を用いて自動で判別されてもよい(例えば非特許文献2参照)。
非特許文献1又は非特許文献2に記載された技術が用いられた場合、利用者は、手動で多くの作業を行うことなく、画像に対して付与された付加情報を利用できる。
非特許文献1又は非特許文献2に記載された技術が用いられた場合、利用者は、手動で多くの作業を行うことなく、画像に対して付与された付加情報を利用できる。
玉田大輔、中西英之、「GPS・カメラ付き携帯電話を用いたユーザ生成型写真地図構築実験」、HCI(ヒューマンコンピュータインタラクション)研究会報告、情報処理学会、2007年、num. 99、p. 39―46
Paul Viola, and Michael J. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features.", In IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2001.
しかしながら、手動追加情報を多くの画像に付与する場合には、利用者は多くの作業を行う必要があった。すなわち、手動追加情報を画像に付与する際には、利用者に作業の面で大きな負担が生じるという問題があった。
また、位置情報を自動的に画像に付与するためには、GPSセンサを備えたカメラを用意する必要があった。したがって、利用者にコストの面で大きな負担が生じるという問題があった。
そのため、利用者に大きな負担を生じさせることなく利用できる付加情報は、人物情報に限られていた。
また、位置情報を自動的に画像に付与するためには、GPSセンサを備えたカメラを用意する必要があった。したがって、利用者にコストの面で大きな負担が生じるという問題があった。
そのため、利用者に大きな負担を生じさせることなく利用できる付加情報は、人物情報に限られていた。
上記事情に鑑み、本発明は、画像へ付加情報を付与する際に利用者に生じる負担を軽減することを可能とする技術を提供することを目的としている。
本発明の一態様は、利用者が撮像する第1画像とほぼ同時に、前記第1画像とは異なる方向の第2画像を撮像する撮像ステップと、前記第2画像に基づいて、前記第2画像に関する情報を取得する取得ステップと、前記第2画像に関する情報を付加情報として前記第1画像に付与する付与ステップと、を有する情報付与方法である。
本発明の一態様は、利用者が撮像する第1画像とほぼ同時に、前記第1画像とは異なる方向の第2画像を撮像する撮像部と、前記第2画像に基づいて、前記第2画像に関する情報を取得する取得部と、前記第2画像に関する情報を付加情報として前記第1画像に付与する付与部と、を有する情報付与装置である。
本発明により、画像へ付加情報を付与する際に利用者に生じる負担を軽減することが可能となる。
図1は、本発明の一実施形態の画像処理システムのシステム構成を示すブロック図である。画像処理システムは、端末100、処理サーバ200及び画像データベース300を備える。端末100と、処理サーバ200及び画像データベース300とは、ネットワークを介して相互に通信可能に接続されている。
端末100は、例えば携帯電話機、PDA(Personal Digital Assistant)、スマートフォン、タブレット、パーソナルコンピュータ等のカメラ機能を備えた通信可能な情報端末装置である。端末100は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備える。端末100は、プログラムを実行することによって、第1撮像部101、第2撮像部102、画像取得部103、制御部104、通信部105、表示部106及び入力部107を備える装置として機能する。
第1撮像部101は、レンズや撮像素子等を備えたカメラを用いて構成される。第1撮像部101は、利用者の撮像動作に応じて画像を撮像する。第1撮像部101は、撮像した画像を画像取得部103へ出力する。
第2撮像部102は、レンズや撮像素子等を備えたカメラを用いて構成される。第2撮像部102は、第1撮像部101とは異なる方向の画像を撮像する。第2撮像部102は、利用者の撮像動作に応じて、第1撮像部101が画像を撮像するのとほぼ同時に画像を撮像する。第2撮像部102は、利用者及び利用者の背景を含む画像を撮像する。第2撮像部102は、撮像した画像を画像取得部103へ出力する。
画像取得部103は、第1撮像部101が撮像した画像に対して画像処理を行い、画像データ(以下、「第1画像」という。)を取得する。画像処理とは、例えば暗電流補正や画像圧縮などの処理である。画像取得部103は、第2撮像部102が撮像した画像に対して画像処理を行い、画像データ(以下、「第2画像」という。)を取得する。画像取得部103は、第1画像及び第2画像を制御部104へ送信する。
制御部104は、第1画像及び第2画像を画像取得部103から取得する。制御部104は、第2画像を処理サーバ200へ送信する。制御部104は、第2画像に基づいて取得された情報を処理サーバ200から受信する。制御部104は、受信された情報を付加情報として第1画像に付与する。制御部104は、付加情報をメタデータとして画像へ直接付与してもよい。例えば、第1画像がEXIF(Exchangeable Image File Format)情報を保存することが可能な場合、制御部104は、付加情報をEXIF情報として第1画像へ付与してもよい。EXIF情報を保存することが可能な画像データの具体例として、TIFF(Tagged Image File Format)、JPEG(Joint Photographic Experts Group)がある。
通信部105は、処理サーバ200及び画像データベース300と通信する。処理サーバ200及び画像データベース300との通信の一部又は全部は、無線通信で行われてもよいし、有線通信で行われてもよい。
表示部106は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、CRT(Cathode Ray Tube)ディスプレイ等の画像表示装置である。表示部106は、画像表示装置を端末100に接続するためのインタフェースであってもよい。この場合、表示部106は、画像を表示するための映像信号を生成し、自身に接続されている画像表示装置に映像信号を出力する。
入力部107は、キーボード、ポインティングデバイス(マウス、タブレット等)、ボタン、タッチパネル等の既存の入力装置を用いて構成される。入力部107は、利用者が操作指示を端末100に入力する際に利用者によって操作される。操作指示とは、例えば画像の撮像の指示である。入力部107は、入力装置を端末100に接続するためのインタフェースであってもよい。この場合、入力部107は、入力装置において利用者の入力に応じ生成された入力信号を端末100に入力する。
次に、処理サーバ200の機能構成について説明する。処理サーバ200は、端末100に対してサービスを提供する情報処理装置である。処理サーバ200は、バスで接続されたCPUやメモリや補助記憶装置などを備える。処理サーバ200は、プログラムを実行することによって、通信部201、特徴量データベース202及び解析部203を備える装置として機能する。
通信部201は、端末100と通信を行う。端末100との通信の一部又は全部は、無線通信で行われてもよいし、有線通信で行われてもよい。
特徴量データベース202は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。特徴量データベース202は、画像から取得される特徴量と、その画像に関する情報とが対応付けられたテーブルを予め記憶している。
解析部203は、端末100から第2画像を受信する。解析部203は、第2画像の解析処理を行う。解析処理は、画像から対象物を検出する処理(以下、「対象物検出処理」という。)と、検出された対象物を分析する処理(以下、「対象物分析処理」という。)とを含む。対象物とは、例えば人物の全体又は一部(例えば顔部分)、ランドマーク(特徴的な構造物)又は背景である。
以下、解析部203が行う解析処理の3つの具体例(第一解析処理、第二解析処理及び第三解析処理)について説明する。なお、解析処理において特徴点が抽出される際には、以下の参考文献1に記載されているSURFの技術が用いられてもよい。
参考文献1:Herbert Bay, et al., “Speeded-up robust features (SURF)”, Computer vision ECCV2006, p.404-417, 2006.
参考文献1:Herbert Bay, et al., “Speeded-up robust features (SURF)”, Computer vision ECCV2006, p.404-417, 2006.
(第一解析処理)
第一解析処理では、対象物は人物の顔部分である。第一解析処理が行われる場合、特徴量データベース202には、顔の特徴量を示す情報と、その顔の人物を表す識別情報(以下、「利用者情報」という。)とが対応付けられて登録されている。
解析部203は、対象物検出処理において、第2画像から人物の顔部分を検出する。解析部203は、画像から人物の顔部分を検出する手法として、haar-likeの方法(例えば非特許文献2参照)を用いてもよい。
解析部203は、対象物分析処理において、検出された顔の特徴量を取得する。解析部203は、特徴量データベース202を参照し、取得された特徴量に対応付けられた利用者情報を取得する。
第一解析処理では、対象物は人物の顔部分である。第一解析処理が行われる場合、特徴量データベース202には、顔の特徴量を示す情報と、その顔の人物を表す識別情報(以下、「利用者情報」という。)とが対応付けられて登録されている。
解析部203は、対象物検出処理において、第2画像から人物の顔部分を検出する。解析部203は、画像から人物の顔部分を検出する手法として、haar-likeの方法(例えば非特許文献2参照)を用いてもよい。
解析部203は、対象物分析処理において、検出された顔の特徴量を取得する。解析部203は、特徴量データベース202を参照し、取得された特徴量に対応付けられた利用者情報を取得する。
(第二解析処理)
第二解析処理では、対象物は人物の顔部分である。解析部203は、対象物検出処理において、第2画像から人物の顔部分を検出する。解析部203は、対象物分析処理において、検出された顔部分の表情に基づいて感情を解析する。画像の顔部分から感情を分析する処理は、既存の技術を用いて行われる。
第二解析処理では、対象物は人物の顔部分である。解析部203は、対象物検出処理において、第2画像から人物の顔部分を検出する。解析部203は、対象物分析処理において、検出された顔部分の表情に基づいて感情を解析する。画像の顔部分から感情を分析する処理は、既存の技術を用いて行われる。
(第三解析処理)
第三解析処理では、対象物はランドマーク又は背景である。解析部203は、対象物検出処理において、第2画像からランドマーク部分又は背景部分を検出する。解析部203は、対象物分析処理において、検出されたランドマーク部分又は背景部分に基づいて、撮像場所に関する情報を取得する。撮像場所に関する情報を取得する処理は、既存の技術を用いて行われる。例えば、東京タワーやスカイツリー等のようなランドマークが検出された場合、解析部203は、検出されたランドマークの名称(東京タワー、スカイツリー)を撮像場所に関する情報として取得してもよいし、検出されたランドマークが位置する土地名(芝、押上、東京、日本)を撮像場所に関する情報として取得してもよい。例えば、海や山などの背景が検出された場合、解析部203は、検出された背景を示す情報(海、山)を撮像場所に関する情報として取得してもよい。
第三解析処理では、対象物はランドマーク又は背景である。解析部203は、対象物検出処理において、第2画像からランドマーク部分又は背景部分を検出する。解析部203は、対象物分析処理において、検出されたランドマーク部分又は背景部分に基づいて、撮像場所に関する情報を取得する。撮像場所に関する情報を取得する処理は、既存の技術を用いて行われる。例えば、東京タワーやスカイツリー等のようなランドマークが検出された場合、解析部203は、検出されたランドマークの名称(東京タワー、スカイツリー)を撮像場所に関する情報として取得してもよいし、検出されたランドマークが位置する土地名(芝、押上、東京、日本)を撮像場所に関する情報として取得してもよい。例えば、海や山などの背景が検出された場合、解析部203は、検出された背景を示す情報(海、山)を撮像場所に関する情報として取得してもよい。
画像データベース300は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。画像データベース300は、端末100によって撮像された画像を記憶する。
図2は、端末100の概観の具体例を示す図である。
第1撮像部101と第2撮像部102とは、それぞれ異なる方向の画像を撮像するように配置される。図2の例では、第1撮像部101と第2撮像部102とは、180度異なる方向を撮像するように配置されている。表示部106には、第1撮像部101又は第2撮像部102によって撮像される画像を示す画面(プレビュー画面)が表示される。利用者は、一般的に、プレビュー画面を見ながら撮像を行う。そのため、第2撮像部102によって撮像される第2画像には、利用者の画像が含まれることが多い。その一方で、第1撮像部101によって撮像される第1画像には、利用者が撮像しようとする画像が含まれることが多い。
第1撮像部101と第2撮像部102とは、それぞれ異なる方向の画像を撮像するように配置される。図2の例では、第1撮像部101と第2撮像部102とは、180度異なる方向を撮像するように配置されている。表示部106には、第1撮像部101又は第2撮像部102によって撮像される画像を示す画面(プレビュー画面)が表示される。利用者は、一般的に、プレビュー画面を見ながら撮像を行う。そのため、第2撮像部102によって撮像される第2画像には、利用者の画像が含まれることが多い。その一方で、第1撮像部101によって撮像される第1画像には、利用者が撮像しようとする画像が含まれることが多い。
図3は、利用者が端末100を利用して画像を撮像する様子を示す図である。利用者601は、端末100を操作して、被写体602を撮像する。図3の場合、利用者601は、端末100の表示部106に表示された画像(第1撮像部101のプレビュー画面の画像)を確認しながら撮像する。そのため、第2画像には、利用者601の顔の画像や、利用者601が位置する場所の画像が含まれる。
図4は、図3の状況で撮像された第1画像及び第2画像の具体例を示す図である。図4(A)は、第1画像の具体例を示す。図4(B)は、第2画像の具体例を示す。第1画像には、被写体602の顔部分の画像が含まれている。第2画像には、利用者601の顔部分の画像が含まれている。
図5は、第一解析処理が実装された場合の処理の流れを表すシーケンス図である。
まず、端末100が、利用者の操作に応じて第1画像及び第2画像を撮像する(ステップS101)。上述したように、端末100は、第1画像及び第2画像をほぼ同時に撮像する。端末100の制御部104は、通信部105を介して、第2画像を処理サーバ200へ送信する(ステップS102)。
まず、端末100が、利用者の操作に応じて第1画像及び第2画像を撮像する(ステップS101)。上述したように、端末100は、第1画像及び第2画像をほぼ同時に撮像する。端末100の制御部104は、通信部105を介して、第2画像を処理サーバ200へ送信する(ステップS102)。
処理サーバ200の解析部203は、第2画像を受信する。解析部203は、第2画像に対して第一解析処理を行う。解析部203は、対象物検出処理において、第2画像から人物の顔部分の画像を検出する(ステップS103)。解析部203は、対象物分析処理において、検出された顔部分から特徴量を抽出する(ステップS104)。解析部203は、抽出された特徴量に基づいて利用者情報を取得する(ステップS105)。解析部203は、第2画像の解析結果(利用者情報)を端末100へ送信する(ステップS106)。
制御部104は、処理サーバ200から受信された利用者情報が正しいか否かを利用者に確認する(ステップS107)。例えば、制御部104は、受信された利用者情報を表示部106に表示する。利用者は、端末100の入力部107を操作して、表示された利用者情報が正しいか否かを入力する。なお、利用者情報が受信されなかった場合、制御部104は、利用者情報の入力を利用者に要求してもよい。
制御部104は、利用者によって確認された利用者情報を処理サーバ200へ送信することによって、確認結果をフィードバックする(ステップS108)。制御部104は、利用者情報が利用者によって入力された場合、入力された利用者情報を処理サーバ200へ送信してもよい。
解析部203は、端末100から受信された確認結果に基づいて特徴量データベース202を更新する(ステップS109)。
なお、図5において、上記のステップS107からステップS109までの処理は省略されてもよい。
解析部203は、端末100から受信された確認結果に基づいて特徴量データベース202を更新する(ステップS109)。
なお、図5において、上記のステップS107からステップS109までの処理は省略されてもよい。
制御部104は、利用者情報を付加情報として第1画像に付与する(ステップS110)。制御部104は、付加情報が付与された第1画像を画像データベース300へ送信する(ステップS111)。
画像データベース300は、端末100から受信された第1画像を記憶する(ステップS112)。
図6は、第二解析処理又は第三解析処理が実装された場合の処理の流れを表すシーケンス図である。図6において、図5と同じ処理については同じ符号を付している。
まず、第二解析処理が実装された場合の処理の流れについて説明する。
まず、端末100が、利用者の操作に応じて第1画像及び第2画像を撮像する(ステップS101)。上述したように、端末100は、第1画像及び第2画像をほぼ同時に撮像する。端末100の制御部104は、通信部105を介して、第2画像を処理サーバ200へ送信する(ステップS102)。
処理サーバ200の解析部203は、第2画像を受信する。解析部203は、第2画像に対して第二解析処理を行う。解析部203は、対象物検出処理において、第2画像から人物の顔部分の画像を検出する(ステップS201)。解析部203は、対象物分析処理において、検出された顔部分から特徴量を抽出する(ステップS202)。解析部203は、抽出された特徴量に基づいて利用者の感情を表す情報を取得する(ステップS203)。解析部203は、第2画像の解析結果(感情を表す情報)を端末100へ送信する(ステップS204)。
まず、第二解析処理が実装された場合の処理の流れについて説明する。
まず、端末100が、利用者の操作に応じて第1画像及び第2画像を撮像する(ステップS101)。上述したように、端末100は、第1画像及び第2画像をほぼ同時に撮像する。端末100の制御部104は、通信部105を介して、第2画像を処理サーバ200へ送信する(ステップS102)。
処理サーバ200の解析部203は、第2画像を受信する。解析部203は、第2画像に対して第二解析処理を行う。解析部203は、対象物検出処理において、第2画像から人物の顔部分の画像を検出する(ステップS201)。解析部203は、対象物分析処理において、検出された顔部分から特徴量を抽出する(ステップS202)。解析部203は、抽出された特徴量に基づいて利用者の感情を表す情報を取得する(ステップS203)。解析部203は、第2画像の解析結果(感情を表す情報)を端末100へ送信する(ステップS204)。
制御部104は、処理サーバ200から受信された情報を第1画像に付加情報として付与する(ステップS205)。制御部104は、付加情報が付与された第1画像を画像データベース300へ送信する(ステップS111)。
画像データベース300は、端末100から受信された第1画像を記憶する(ステップS112)。
画像データベース300は、端末100から受信された第1画像を記憶する(ステップS112)。
次に、第三解析処理が実装された場合の処理の流れについて説明する。
まず、端末100が、利用者の操作に応じて第1画像及び第2画像を撮像する(ステップS101)。上述したように、端末100は、第1画像及び第2画像をほぼ同時に撮像する。端末100の制御部104は、通信部105を介して、第2画像を処理サーバ200へ送信する(ステップS102)。
処理サーバ200の解析部203は、第2画像を受信する。解析部203は、第2画像に対して第三解析処理を行う。解析部203は、対象物検出処理において、第2画像からランドマーク部分又は背景部分を検出する(ステップS201)。解析部203は、対象物分析処理において、検出されたランドマーク部分又は背景部分から特徴量を抽出する。抽出される特徴量は、例えばランドマークの形状や模様を表す情報であってもよいし、背景の色や色の分布を表す情報であってもよい(ステップS202)。解析部203は、抽出された特徴量に基づいて、撮影場所に関する情報を取得する(ステップS203)。解析部203は、第2画像の解析結果(撮像場所に関する情報)を端末100へ送信する(ステップS204)。
まず、端末100が、利用者の操作に応じて第1画像及び第2画像を撮像する(ステップS101)。上述したように、端末100は、第1画像及び第2画像をほぼ同時に撮像する。端末100の制御部104は、通信部105を介して、第2画像を処理サーバ200へ送信する(ステップS102)。
処理サーバ200の解析部203は、第2画像を受信する。解析部203は、第2画像に対して第三解析処理を行う。解析部203は、対象物検出処理において、第2画像からランドマーク部分又は背景部分を検出する(ステップS201)。解析部203は、対象物分析処理において、検出されたランドマーク部分又は背景部分から特徴量を抽出する。抽出される特徴量は、例えばランドマークの形状や模様を表す情報であってもよいし、背景の色や色の分布を表す情報であってもよい(ステップS202)。解析部203は、抽出された特徴量に基づいて、撮影場所に関する情報を取得する(ステップS203)。解析部203は、第2画像の解析結果(撮像場所に関する情報)を端末100へ送信する(ステップS204)。
制御部104は、処理サーバ200から受信された情報を第1画像に付加情報として付与する(ステップS205)。制御部104は、付加情報が付与された第1画像を画像データベース300へ送信する(ステップS111)。
画像データベース300は、端末100から受信された第1画像を記憶する(ステップS112)。
画像データベース300は、端末100から受信された第1画像を記憶する(ステップS112)。
このように構成された画像処理システムでは、第1画像とは異なる方向を撮像することによって第2画像が得られる。第2画像には、例えば利用者(撮像を行う者)の顔や、利用者が位置する場所の風景が含まれる。そして、第2画像に基づいて得られる情報が第1画像に付加情報として付与される。そのため、利用者に大きな負担を生じさせることなく第1画像に付加情報を付与することが可能となる。
より具体的には以下のとおりである。上述の画像処理システムでは、利用者は、通常の画像撮像の操作を行うだけで、付加情報を第1画像へ付与することができる。そのため、利用者は、付加情報を画像に付与するための特殊な作業を行う必要がない。また、利用者は、GPSセンサを備えたカメラを用意する必要がない。
より具体的には以下のとおりである。上述の画像処理システムでは、利用者は、通常の画像撮像の操作を行うだけで、付加情報を第1画像へ付与することができる。そのため、利用者は、付加情報を画像に付与するための特殊な作業を行う必要がない。また、利用者は、GPSセンサを備えたカメラを用意する必要がない。
上述した実施形態における端末100及び処理サーバ200をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
<変形例>
図1に示した実施形態において、特徴量データベース202は、処理サーバ200に備えられていたが、別の情報処理装置に構築されていてもよい。図7は、本発明の一実施形態の画像処理システムのシステム構成を示すブロック図である。図7において、画像処理システムは、端末100、処理サーバ200a、画像データベース300及び特徴量データベース400を備える。処理サーバ200aと特徴量データベース400とはネットワークを介して互いに通信可能である。
図1に示した実施形態において、特徴量データベース202は、処理サーバ200に備えられていたが、別の情報処理装置に構築されていてもよい。図7は、本発明の一実施形態の画像処理システムのシステム構成を示すブロック図である。図7において、画像処理システムは、端末100、処理サーバ200a、画像データベース300及び特徴量データベース400を備える。処理サーバ200aと特徴量データベース400とはネットワークを介して互いに通信可能である。
処理サーバ200aは、特徴量データベース202を備えない点を除けば、処理サーバ200と同様の構成である。
特徴量データベース400は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。特徴量データベース400は、処理サーバ200が備える特徴量データベース202と同様の構成である。
特徴量データベース400は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。特徴量データベース400は、処理サーバ200が備える特徴量データベース202と同様の構成である。
図1に示した実施形態において、処理サーバ200及び画像データベース300は端末100とは異なる装置に構築されていたが、端末100に構築されていてもよい。図8は、本発明の一実施形態の画像処理システムのシステム構成を示すブロック図である。図8において、画像処理システムは、端末100aを備える。
端末100aは、通信部105を必要としない点、制御部104に代えて制御部104aを備える点、特徴量データベース108、解析部109及び画像データベース110をさらに備える点、において端末100と異なる。制御部104aは、通信部を介することなく、解析部109に第2画像の解析処理を依頼する。制御部104aは、通信部を介することなく、付加情報が付与された第1画像を画像データベース110に記憶させる。
第1撮像部101及び第2撮像部102が画像を同時に撮像するのが困難な場合には、第1撮像部101が画像を撮像した後に、第2撮像部が逐次的に画像を撮像してもよい。例えば、第1撮像部101又は第2撮像部102のカメラのセンサが高解像度である場合、撮像された画像のデータサイズは大きい。この場合、端末100は、撮像画像データを転送するために広い帯域(すなわち、早い通信速度)を必要とする。端末100のデータ転送の帯域が撮像画像のデータサイズに対して十分に広くない場合、端末100は、第1撮像部101及び第2撮像部102の画像を同時に転送することが困難である。したがって、端末100は、第1撮像部101及び第2撮像部102で同時に画像を撮像することが困難である。このような場合などは、上述したように必ずしも同時に撮像がなされる必要はない。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
100…端末, 200…処理サーバ, 300…画像データベース, 400…特徴量データベース, 101…第1撮像部, 102…第2撮像部, 103…画像取得部, 104…制御部, 105…通信部, 106…表示部, 107…入力部, 108…特徴量データベース, 109…解析部, 110…画像データベース, 201…通信部, 202…特徴量データベース, 203…解析部, 601…利用者, 602…被写体
Claims (2)
- 利用者が撮像する第1画像とほぼ同時に、前記第1画像とは異なる方向の第2画像を撮像する撮像ステップと、
前記第2画像に基づいて、前記第2画像に関する情報を取得する取得ステップと、
前記第2画像に関する情報を付加情報として前記第1画像に付与する付与ステップと、
を有する情報付与方法。 - 利用者が撮像する第1画像とほぼ同時に、前記第1画像とは異なる方向の第2画像を撮像する撮像部と、
前記第2画像に基づいて、前記第2画像に関する情報を取得する取得部と、
前記第2画像に関する情報を付加情報として前記第1画像に付与する付与部と、
を有する情報付与装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014123472A JP2016004362A (ja) | 2014-06-16 | 2014-06-16 | 情報付与方法及び情報付与装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014123472A JP2016004362A (ja) | 2014-06-16 | 2014-06-16 | 情報付与方法及び情報付与装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016004362A true JP2016004362A (ja) | 2016-01-12 |
Family
ID=55223608
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014123472A Pending JP2016004362A (ja) | 2014-06-16 | 2014-06-16 | 情報付与方法及び情報付与装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016004362A (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013013145A (ja) * | 2012-10-03 | 2013-01-17 | Olympus Imaging Corp | 画像処理装置 |
JP2014010612A (ja) * | 2012-06-29 | 2014-01-20 | Ricoh Co Ltd | 付加情報管理システム、画像共有システム、付加情報管理方法、及びプログラム |
US20140146202A1 (en) * | 2012-11-27 | 2014-05-29 | International Business Machines Corporation | Method and apparatus for tagging media with identity of creator or scene |
-
2014
- 2014-06-16 JP JP2014123472A patent/JP2016004362A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014010612A (ja) * | 2012-06-29 | 2014-01-20 | Ricoh Co Ltd | 付加情報管理システム、画像共有システム、付加情報管理方法、及びプログラム |
JP2013013145A (ja) * | 2012-10-03 | 2013-01-17 | Olympus Imaging Corp | 画像処理装置 |
US20140146202A1 (en) * | 2012-11-27 | 2014-05-29 | International Business Machines Corporation | Method and apparatus for tagging media with identity of creator or scene |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5612310B2 (ja) | 顔認識のためのユーザーインターフェース | |
US9378570B2 (en) | Information processing device, information processing method and program | |
US10264207B2 (en) | Method and system for creating virtual message onto a moving object and searching the same | |
US20120321131A1 (en) | Image-related handling support system, information processing apparatus, and image-related handling support method | |
US11538276B2 (en) | Communication system, distributed processing system, distributed processing method, and recording medium | |
TWI586160B (zh) | 利用行動電話及雲端可視化搜尋引擎之即時物體掃描 | |
US20190246037A1 (en) | Image Enhancement and Repair Using Sample Data from Other Images | |
CN109981989B (zh) | 渲染图像的方法、装置、电子设备和计算机可读存储介质 | |
WO2018000299A1 (en) | Method for assisting acquisition of picture by device | |
US9076031B2 (en) | Image capture apparatus, control method of image capture apparatus, and recording medium | |
JP2016004362A (ja) | 情報付与方法及び情報付与装置 | |
JP2014160963A (ja) | 画像処理装置及びプログラム | |
JP2015064824A (ja) | 情報処理装置、画像処理システム、情報処理装置における画像処理方法及びプログラム | |
US20110109763A1 (en) | Apparatus and method for image registration in portable terminal | |
JP6115673B2 (ja) | 装置、及びプログラム | |
JP6712861B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6909022B2 (ja) | プログラム、情報端末、情報表示方法及び情報表示システム | |
JP2014153829A (ja) | 画像処理装置、画像処理システム、画像処理方法及びプログラム | |
JP5977697B2 (ja) | 電子機器、および電子機器を制御するための方法 | |
WO2023095770A1 (ja) | 拡張現実表示装置、サーバ装置、拡張現実表示システム、拡張現実表示方法、及びプログラム | |
US20240040232A1 (en) | Information processing apparatus, method thereof, and program thereof, and information processing system | |
JP5920448B2 (ja) | 撮像装置、プログラム | |
JP6436191B2 (ja) | サーバ装置、サーバ装置を用いた情報処理方法及びプログラム | |
JP2017175453A (ja) | 画像処理装置及び画像処理方法 | |
KR101750283B1 (ko) | 스마트 미디어 연동형 개인 블랙박스용 라이프 로그 서비스 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160913 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170512 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170704 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180213 |