JP2011253424A - 画像認識装置及び画像認識方法並びに情報提供システム - Google Patents

画像認識装置及び画像認識方法並びに情報提供システム Download PDF

Info

Publication number
JP2011253424A
JP2011253424A JP2010127726A JP2010127726A JP2011253424A JP 2011253424 A JP2011253424 A JP 2011253424A JP 2010127726 A JP2010127726 A JP 2010127726A JP 2010127726 A JP2010127726 A JP 2010127726A JP 2011253424 A JP2011253424 A JP 2011253424A
Authority
JP
Japan
Prior art keywords
image
information
unit
data
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010127726A
Other languages
English (en)
Inventor
Nobukatsu Haraguchi
信克 原口
Toshiaki Inami
俊明 稲見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BILL HARAGUCHI
IDEAROUKS CO Ltd
Original Assignee
BILL HARAGUCHI
IDEAROUKS CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BILL HARAGUCHI, IDEAROUKS CO Ltd filed Critical BILL HARAGUCHI
Priority to JP2010127726A priority Critical patent/JP2011253424A/ja
Publication of JP2011253424A publication Critical patent/JP2011253424A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】1つの画像に含まれる種々の情報を複合的に認識・解析し、多様化したニーズに対し迅速で適切なサービスを提供し得る画像認識装置・方法を提供する。
【解決手段】携帯端末1にて撮影した画像をシステムサーバ2にて取得・解析し、撮影画像に対応したサービスをユーザ10に提供する。システムサーバ2は、取得画像から特徴点等の画像内情報を抽出する画像内情報抽出部11と、画像の撮影場所や時間等の状況情報を取得するシチュエーション情報取得部12と、画像データが画像内情報と関連付けられた状態で格納されたデータベース部17と、画像内情報に基づいて画像データを検索するデータ検索部13と、状況情報に基づいて画像データを絞り込む状況判断部14と、絞り込まれた画像データに対応するサービス情報を抽出するサービス選択部15と、を有する。
【選択図】図1

Description

本発明は、携帯端末(携帯電話やモバイル端末、携帯ゲーム機等)のカメラ等によって撮影された画像を所定条件に基づいて迅速に認識・判別する画像認識装置・方法に関し、特に、撮影された画像に含まれる物品や人物、動植物、風景等を認識し、それに対応した情報を適宜ユーザに提供する情報提供システムに適用して有効な技術に関する。
画像認識技術の分野では、従来より、パターン認識や文字認識、画像マッチングなど、種々の方式が開発、採用されている。例えば、パターン認識としては、バーコードやQRコードなどの識別子を用いたものや、典型的な形状に基づき人物や動物等を認識するデジタルカメラや防犯システムの顔認識などが知られている。また、文字認識としては、ドキュメント管理や名刺管理等に使用されているOCR(Optical Character Reader:光学式文字読取装置)が、画像マッチングとしては、銀行等のセキュリティシステムにおける指紋認証や網膜認証などが知られている。
特開2009-80635号公報 特開2008-242712号公報 特開2005-4453号公報
一方、これまでの画像認識技術は、各分野ごとに、専門的に特化しながら発展してきており、例えば「顔認識」であれば、より正確に人物を特定できるように、また、「文字認識」であれば、従来のホワイトペーパー上の文字認識から、画像の景色や背景に含まれる文字の認識へと、認識対象に特化して技術の発展が図られてきた。また、画像認識技術の研究・進化は発展途上の分野でもあり、ハードウエアの進歩や、通信環境等のインフラの整備により、従来の技術が大きく発展したり、既存あるいは想定されるサービスが多様化したりする可能性がある。
しかしながら、前述のように、従来の画像認識技術は、専門的に特化した形態であるため、単体サービスを目的としたシステムには有効であるものの、種々の認識対象を含む複合的なサービスには対応しておらず、処理速度に問題が生じる可能性がある。特に、画像認識技術の進化は、技術的・専門的に深化する傾向があり、必ずしもユーザのライフスタイルとは一致せず、多様化したサービスに対応していない、というのが現状であった。
本発明の目的は、1つの画像に含まれる種々の情報を複合的に認識・解析し、多様化したニーズに対し迅速で適切なサービスを提供し得る画像認識装置・方法を提供することにある。
本発明の画像認識装置は、コンピュータを利用した画像認識装置であって、前記コンピュータは、取得した画像の中から、前記画像に含まれる所定の画像内情報を抽出する画像内情報抽出部と、前記画像を撮影した場所及び/又は時間と、前記画像が送信された場所及び/又は前記画像が取得された時間のうち、少なくとも何れか1つを含む状況情報を取得するシチュエーション情報取得部と、前記画像内情報と関連付けられた状態で画像データが格納されたデータベース部と、前記画像内情報抽出部にて抽出した前記画像内情報に基づいて、前記データベース部から、前記画像データを検索するデータ検索部と、前記シチュエーション情報取得部にて取得した前記状況情報に基づいて、前記データ検索部にて検索・取得された前記画像データを絞り込む状況判断部と、を有することを特徴とする。
前記画像認識装置において、前記状況判断部により、前記シチュエーション情報取得部にて取得した前記状況情報に基づいて、前記画像の撮影された状況及び/又は前記画像が送信された状況を示す画像環境情報を作成し、該画像環境情報に基づいて、前記データ検索部にて検索・取得された画像データを絞り込み、前記データベース部に、前記画像データに対応する前記画像環境情報が、前記各画像データごとに格納されたサービスデータベースを設けても良い。
また、前記データベース部に、前記画像データに付随するサービス情報の内容が、前記各画像データごとに格納されたサービスデータベースを設け、前記コンピュータに、前記サービスデータベースから、前記状況判断部にて絞り込まれた前記画像データに対応するサービス情報を抽出するサービス選択部をさらに設けても良い。この場合、前記画像内情報抽出部に、取得した前記画像の中から、該画像に含まれる所定のパターンを抽出するパターン抽出部を、前記データベース部に、前記パターン及び前記パターンごとに設定されたキーワードが格納されたパターンデータベースをそれぞれ設けると共に、前記コンピュータに、前記パターン抽出部にて抽出された前記パターンに基づいて、前記パターンデータベースからキーワードを選択し、前記データ検索部にて検索・取得された画像データを、前記キーワードに置き換えるキーワード変換部をさらに設け、前記サービス選択部によって、前記キーワードを用いて、前記画像データに対応するサービス情報を抽出するようにしても良い。
さらに、前記画像内情報抽出部により、前記画像内情報として、前記画像の特徴点とその個数、該画像中の文字、該画像の色調を抽出すべく、前記画像内情報抽出部内に、前記特徴点とその個数を抽出する特徴点抽出部と、前記画像中の文字を抽出する文字認識部と、前記画像の色調を抽出する色調抽出部と、を設けても良い。この場合、前記データ検索部により、前記画像内情報のうち、前記特徴点の個数、前記画像中の文字、及び、前記画像の色調に基づいて、前記データベース部から前記画像データを検索する第1次絞り込み検索と、前記第1次絞り込み検索によって検索された前記画像データから、前記特徴点に基づいて、前記画像データをさらに検索する第2次絞り込み検索と、を実行させても良い。
一方、本発明の画像認識方法は、コンピュータを利用した画像認識方法であって、取得した画像の中から、前記画像に含まれる所定の画像内情報を抽出するステップと、前記画像を撮影した場所及び/又は時間と、前記画像が送信された場所及び/又は前記画像が取得された時間のうち、少なくとも何れか1つを含む状況情報を取得するステップと、前記画像内情報に基づいて、前記画像データを検索するステップと、前記状況情報に基づいて、前記画像の撮影された状況及び/又は前記画像が送信された状況を示す画像環境情報を作成するステップと、前記画像環境情報に基づいて、検索・取得された前記画像データを絞り込むステップと、を有することを特徴とする。
また、本発明の他の画像認識方法は、コンピュータを利用した画像認識方法であって、取得した画像の中から、前記画像に含まれる所定の画像内情報を抽出するステップと、前記画像を撮影した場所及び/又は時間と、前記画像が送信された場所及び/又は前記画像が取得された時間のうち、少なくとも何れか1つを含む状況情報を取得するステップと、前記画像内情報に基づいて、前記画像データを検索するステップと、取得した前記画像の中から、該画像に含まれる所定のパターンを抽出するステップと、前記パターン抽出部にて抽出された前記パターンに基づいて、キーワードを選択するステップと、前記画像内情報に基づいて検索・取得された前記画像データを、前記キーワードに置き換えるステップと、前記キーワードを用いて、前記画像データに付随するサービス情報を検索するステップと、前記状況情報に基づいて、前記画像の撮影された状況及び/又は前記画像が送信された状況を示す画像環境情報を作成するステップと、前記画像環境情報に基づいて、検索・取得された前記サービス情報を絞り込むステップと、を有することを特徴とする。
前記画像認識方法において、前記画像内情報として、前記画像の特徴点とその個数、該画像中の文字、該画像の色調を抽出し、前記画像内情報のうち、前記特徴点の個数、前記画像中の文字、及び、前記画像の色調に基づいて、前記画像データを検索する第1次絞り込み検索と、前記第1次絞り込み検索によって検索された前記画像データから、前記特徴点に基づいて、前記画像データをさらに検索する第2次絞り込み検索と、を実行するようにしても良い。
加えて、本発明の情報提供システムは、ユーザが携帯端末にて撮影した画像を、コンピュータを利用したシステムサーバにて取得・解析し、前記ユーザの前記携帯端末に対し、前記画像に対応したサービスを提供する情報提供システムであって、前記コンピュータは、取得した前記画像の中から、前記画像に含まれる所定の画像内情報を抽出する画像内情報抽出部と、前記画像を撮影した場所及び/又は時間と、前記画像が送信された場所及び/又は前記画像が取得された時間のうち、少なくとも何れか1つを含む状況情報を取得するシチュエーション情報取得部と、前記画像内情報と関連付けられた状態で画像データが格納されると共に、前記画像データに基づいて提供されるサービスの内容が前記各画像データごとに格納されたデータベース部と、前記画像内情報抽出部にて抽出した前記画像内情報に基づいて、前記データベース部から、前記画像データを検索するデータ検索部と、前記シチュエーション情報取得部にて取得した前記状況情報に基づいて、前記データ検索部にて検索・取得された前記画像データを絞り込む状況判断部と、前記データベース部から、前記状況判断部にて絞り込まれた前記画像データに対応するサービス情報を抽出するサービス選択部と、前記サービス選択部にて抽出したサービス情報に基づくサービスを前記携帯端末に送信するデータ送受信部と、を有することを特徴とする。
前記情報提供システムにおいて、前記画像内情報抽出部に、取得した前記画像の中から、該画像に含まれる所定のパターンを抽出するパターン抽出部を、前記データベース部に、前記パターン及び前記パターンごとに設定されたキーワードが格納されたパターンデータベースをそれぞれ設けると共に、前記コンピュータに、前記パターン抽出部にて抽出された前記パターンに基づいて、前記パターンデータベースからキーワードを選択し、前記データ検索部にて検索・取得された画像データを、前記キーワードに置き換えるキーワード変換部をさらに設け、前記サービス選択部により、前記キーワードを用いて、前記画像データに対応するサービス情報を抽出するようにしても良い。
本発明の画像認識装置によれば、コンピュータを利用した画像認識装置にて、取得した画像の中から画像に含まれる所定の画像内情報を抽出する画像内情報抽出部と、状況情報を取得するシチュエーション情報取得部と、画像内情報に基づいて画像データを検索するデータ検索部と、状況情報に基づいて画像データを絞り込む状況判断部と、を設けることにより、1つの画像に含まれる種々の情報を複合的に認識・解析することができる。従って、専門的に特化し単体サービスを目的とした従来の画像認識技術とは異なり、種々の認識対象を含む複合的なサービスに迅速に対応することが可能となる。
本発明の画像認識方法によれば、コンピュータを利用した画像認識方法にて、取得した画像の中から画像に含まれる所定の画像内情報を抽出するステップと、状況情報を取得するステップと、画像内情報に基づいて画像データを検索するステップと、状況情報に基づいて画像環境情報を作成するステップと、画像環境情報に基づいて、検索・取得された前記画像データを絞り込むステップと、を設けることにより、1つの画像に含まれる種々の情報を複合的に認識・解析することができる。従って、専門的に特化し単体サービスを目的とした従来の画像認識技術とは異なり、種々の認識対象を含む複合的なサービスに迅速に対応することが可能となる。
本発明の情報提供システムによれば、携帯端末にて撮影した画像を、コンピュータを利用したシステムサーバにて取得・解析し、ユーザの携帯端末に対し、撮影画像に対応したサービスを提供する情報提供システムにて、取得した画像の中から画像に含まれる所定の画像内情報を抽出する画像内情報抽出部と、状況情報を取得するシチュエーション情報取得部と、画像内情報と関連付けられた状態で画像データが格納され、画像データに基づいて提供されるサービスの内容が各画像データごとに格納されたデータベース部と、抽出した画像内情報に基づいて、データベース部から、画像データを検索するデータ検索部と、状況情報に基づいて、検索・取得された画像データを絞り込む状況判断部と、データベース部から、絞り込まれた画像データに対応するサービス情報を抽出するサービス選択部と、抽出したサービス情報に基づくサービスを携帯端末に送信するデータ送受信部と、を設けることにより、1つの画像に含まれる種々の情報を複合的に認識・解析し、当該画像に関連するサービスをユーザに対し的確に提供することが可能となる。従って、従来の画像認識技術を用いた情報提供システムとは異なり、ユーザに対し、種々の認識対象を含む複合的なサービスを迅速に提供することが可能となる。
本発明による画像認識装置・方法を用いた情報提供システムの全体構成を示す説明図である。 画像内情報抽出部内の構成を示すブロック図である。 シチュエーション情報取得部内の構成を示すブロック図である。 データベース部内の構成を示すブロック図である。 当該情報提供システムにおける処理手順を示すフローチャートである。 画像DB内の画像データと、サービスDBの「画像環境情報」と「サービス情報」の一例を示す説明図である。 雑誌の表紙の一例を示す説明図である。
以下、本発明の実施例を図面に基づいて詳細に説明する。図1は、本発明による画像認識装置・方法を用いた情報提供システムの全体構成を示す説明図である。図1に示すように、当該情報提供システムは、携帯電話やモバイル端末等の携帯端末1と、情報提供サイドに設けられたシステムサーバ(画像認識装置)2とから構成されており、システムサーバ2は、電話回線やインターネット回線等を介して、携帯端末1と接続されている。図1のシステムでは、ユーザ10が携帯端末1にて撮影した画像(写真(静止画像)や動画)をシステムサーバ2に送信すると、システムサーバ2は、送られてきた画像から人物や物体、色調、文字等を複合的に認識すると共に、撮影時の状況(場所や時間等)を解析し、ユーザ10が求める最適な情報を携帯端末1に提供する。
システムサーバ2はコンピュータを用いた構成となっており、システムサーバ2内には、制御処理部(CPU)3と、データ格納部4、データ送受信部5、及び、タイマ6が設けられている。制御処理部3には、画像内情報抽出部11、シチュエーション情報取得部12、データ検索部13、状況判断部14、サービス選択部15、キーワード変換部16の各機能手段が設けられている。データ格納部4には、データベース部17、ROM18、RAM19が設けられている。制御処理部3やデータ格納部4、データ送受信部5は、それぞれバスライン7によって接続されており、システムサーバ2は、データ送受信部5を介して、携帯端末1との間でデータのやり取りを行う。
画像内情報抽出部11は、撮影された画像の中から、人物や物体等に関する種々の情報を抽出する。また、シチュエーション情報取得部12は、画像を撮影した場所(位置情報)や時間、画像の送信時間や送信場所など、各画像に付属する状況情報を取得する。データ検索部13は、画像内情報抽出部11にて抽出した情報を用いて、データベース部17内に格納された画像や文字情報等から、ユーザが求めるデータを検索する。状況判断部14は、シチュエーション情報取得部12にて取得した状況情報に基づいて、画像の撮影された状況や環境を判断し、画像の撮影された状況や画像が送信された状況等を示す画像環境情報を作成する。サービス選択部15は、状況判断部14にて作成された画像環境情報に基づいて、データ検索部13にて検索、取得されたデータから、ユーザに提供するサービスを絞り込む。
ROM18は、不揮発性の記憶手段であり、画像内情報抽出部11等の機能手段によって実行される処理に関するプログラムが格納されている。RAM19は、データの読み書きが可能な記憶手段であり、各機能手段による処理によって取得されたり、認識されたりしたデータ等が一時的に格納される。データ送受信部5は、携帯端末1から画像等を取得すると共に、データ検索部13や状況判断部14、サービス選択部15によって検索・取得された情報やサービスを携帯端末1に送信する。
図2は、画像内情報抽出部11内の構成を示すブロック図である。図2に示すように、画像内情報抽出部11内にはさらに、特徴点抽出部21、文字認識部22、パターン抽出部23、色調抽出部24が設けられており、画像認識エンジンが複数種類配置された構成となっている。特徴点抽出部21は、得られた画像の持つ固有の特徴点を抽出すると共に、その画像の持つ特徴点の数を把握する機能手段である。
特徴点抽出部21では、例えば、当該画像は「右上に特に明るい部分がある」とか、「下部の色が白から赤に変わっている」など、各画像の特徴点を抽出し、特徴点数をカウントする。この場合、特徴点抽出部21は、画像の中から特徴として認識されるポイント(曲がり角、色の変わり目など)を特徴点として抽出し、その周辺の色情報を一定の次元数のヒストグラムに変換する。次に、特徴点を抽出した後、互いに隣接しあう別の特徴点の結びつけを行い、一つあるいは複数の特徴点のパターンを算出する(この特徴点パターンは、カテゴライズされたり、色調抽出部24における色味の算出にて使用したりする)。
文字認識部22は、いわゆるOCRエンジンと同様に、画像の背景等に存在する文字を抽出・認識する機能手段である。また、パターン抽出部23は、花や犬猫等の動物、看板、自動車などの特徴的な形状パターンを画像内から抽出し、画像内の物体を認識する機能手段である。当該システムでは、花や動物等の特徴的形状パターンが、予めデータ化されてデータベース部17に格納されている。パターン抽出部23は、画像内からこれらと同様の特徴を持つ部位を抽出し、画像内に、人間の顔や猫、花などが存在することを推認する。
色調抽出部24は、画像内から色を抽出し、当該画像に含まれる色彩をカテゴライズする機能手段である。すなわち、画像の「色調」を検出する部位であり、例えば、取得した画像内に「赤が多く含まれている(赤っぽい)」とか、「青っぽい」、「黒っぽい」、など、画像を「色彩」の観点から分類して特徴付ける。色調抽出部24では、一つの画像の各点(ドット)から色情報(R,G,B)を抽出し、それを予め定められた段階に分割/保持する(黒・白・赤・青・緑・紫・黄色・水色等)。同時に階調も保持し、この色分割のなかで、画像内に占める割合が一番高い色を画像の色味とする。従って、色調抽出部24では、同じ赤でも、濃く暗い赤から、薄く明るい赤まで、画像の色調を細かに検出でき、全体に明るい画像であるとか、暗い画像であるとかなども把握できる。また、上記「特徴点」と組み合わせて、ある複数の特徴点の集まりの中での色味情報の算出を行う。これにより、あるエリアの中にある物体の色味情報だけを抜き出すことができる。この色味情報は、後述する第2次絞り込み検索におけるデータ照合に使用される。
図3は、シチュエーション情報取得部12内の構成を示すブロック図である。図3に示すように、シチュエーション情報取得部12内には、位置情報取得部31と、時間情報取得部32が設けられている。位置情報取得部31は、状況情報として、携帯端末1から送られてきた画像に含まれている撮影位置情報や、ユーザが画像を送信した場所(携帯端末1の画像送信時の現在位置)を示す送信位置情報を取得する。昨今の携帯端末やデジタルカメラには、GPS機能や高度計機能が搭載されているものも多く、それらによって撮影された映像には、各画像の撮影位置情報(例えば、北緯X°,東経Y°,高度Zm)などが含まれている。位置情報取得部31は、これらのデータを画像から抽出し、各画像の撮影位置を特定・取得する。また、ユーザが画像を送信した場所も、携帯端末1のGPS機能を利用して、送信位置情報として取得される。
時間情報取得部32は、画像が送信されてきた時刻(着信時刻)や、撮影された時刻を画像データから取得する。着信時刻は、システムサーバ2内のタイマ6を用いて取得される。画像の撮影時刻は、画像に含まれている時間情報を抽出し、特定・取得する。通常、携帯端末1やデジタルカメラにて撮影された画像には、撮影時刻を示す時間情報(タイムスタンプ)が付されている。時間情報取得部32は、このタイムスタンプを画像から抽出し、各画像の撮影時刻を特定・取得する。
図4は、データベース部17内の構成を示すブロック図である。図4に示すように、データベース部17内には、画像DB41と、画像内情報DB42、パターンDB43、サービスDB44が設けられている。画像DB41内には、種々の画像データが、特徴点や特徴点数、文字情報、色調などの「画像情報」と関連付けられた状態で格納されている。画像内情報DB42内には、特徴点DB51、文字情報DB52、色調DB53が設けられている。特徴点DB51には、前述の画像特徴点の典型例(特徴点データ)が格納されている。文字情報DB52には、OCR用の文字データが格納されている。色調DB53には、色調把握用の色データが格納されている。
パターンDB43には、花や動物等の特徴的形状パターンを示すパターンデータが格納されている。パターンDB43では、例えば、「眉,目,鼻,口」等の配置に基づいて形成された人間の顔のパターンデータや、「輪郭,耳,鼻」等の形に基づいて形成された猫のパターンデータなどが格納されている。パターン抽出部23は、画像内からそのパターンを抽出し、画像内に人間の顔や猫が存在すること推認する。また、花であれば、パターンデータとして、いくつかの花弁形状がパターン化されて格納されており、衣服であれば、シャツやパンツなど形状がパターン化されて格納されている。パターン抽出部23は、これらデータに基づいて、画像内に花や衣服などが存在することを推認する。
サービスDB44には、画像DB41内の各画像データに対応する「サービス情報」、「画像環境情報」、「キーワード」が格納されている。「サービス情報」や「画像環境情報」、「キーワード」は、画像DB41内の各画像データに関連付けられており、携帯端末1からの画像を解析・認識し、画像が特定されると、このサービスDB44から、当該画像に関連するサービス情報等が選択・抽出される。サービスDB44内のデータは、静止画像や文字情報、各種ホームページのURL(商品の紹介ページや購入ページ,辞書・辞典等のページ等)には限られず、動画や音声データなども適宜含まれる。
次に、このような情報提供システムでは、以下のような手順でユーザ所望の情報が提供される。図5は、当該情報提供システムにおける処理手順を示すフローチャートである。ここではまず、ステップS1にて、携帯端末1にて撮影した画像をシステムサーバ2が取得する。画像を取得したシステムサーバ2は、当該画像から、画像内情報とシチュエーション情報を取得する(ステップS2,S3;順不同)。
画像内情報の取得は、画像内情報DB42を参照しつつ、画像内情報抽出部11によって行われる。画像内情報抽出部11の特徴点抽出部21、文字認識部22、色調抽出部24の各機能手段は、各エンジンにより、画像の特徴点及び特徴点数、文字、色調の各情報を取得する。この際、特徴点としては、通常、300〜400個程度かそれ以上の特徴が抽出される。また、シチュエーション情報の取得は、シチュエーション情報取得部12によって行われ、位置情報取得部31、時間情報取得部32により、画像の撮影場所や高度、撮影時刻、送信場所、着信時間などの情報が取得される。画像内情報抽出部11やシチュエーション情報取得部12にて取得された各情報は、RAM19に格納される。
ステップS2,S3にて画像内情報を取得した後、ステップS4に進み、画像内情報を用いて、まず、第1次絞り込み検索を行う。第1次絞り込み検索は、データ検索部13によって行われ、データベース部17の画像DB41から、ステップS2,S3にて取得した画像の特徴点数、文字、色調に適合する画像データを抽出する。S4では、画像DB41中のデータから、「特徴点数」が近似するもの、同じ「文字」が含まれるもの、「色調」が近似するもの、を抽出する。例えば、取得した画像の特徴点数が300個の場合、250〜350個の特徴点数を有する画像データを抽出し、「文字」や「色調」などを掛け合わせて、データを絞り込む。この際、当該システムでは、通常の画像認識システムのように、個々の画像の一致不一致を見るのではなく、画像データに含まれる「画像情報」をDB検索するため、S4では非常に高速にてデータの絞り込みを行うことができる。
ステップS4にて、第1次絞り込み検索として、このような高速プレサーチを行った後、ステップS5に進み、第2次絞り込み検索として、画像の特徴点や色味から画像データを絞り込む。第2次絞り込み検索もまた、データ検索部13によって行われ、S4の第1次絞り込み検索にて得られた画像データをさらに絞り込む。S5にて絞り込まれた画像データは、RAM19に格納される。
このS5の第2次絞り込み検索では、画像の特徴点を個々のデータごとに比較・照合し、特徴点や色味が一致する画像データを抽出する。すなわち、データ検索部13は、抽出した特徴点同士の比較を行い、特徴点の集まりとして保持しているパターンが、近似パターンとして選択可能かどうかを判断する。この判断は、画像同士の全ての特徴点/ヒストグラムの近似を算出するため、非常に計算に時間を有するが、既に第1次絞り込みを行っておりデータ数が限られているため、従来の画像認識システムに比して、最終的な絞り込みに達するまでの時間は大幅に短縮される。また、あるエリア内に存在する物体の色味情報だけを抜き出し、その比較・照合も行い、画像の中で一番頻度の高い色味段階がマッチングするか否か、また、その割合がある一定以上であるかを判断する。
ステップS4,S5にて第1次・第2次の絞り込み検索を実行した後、ステップS6に進み、本システムにおける情報提供が、「画像マッチングサービス」であるかどうかが確認される。この場合、「画像マッチングサービス」とは、クライアント(画像提供側)の希望により、S5にて絞り込まれた画像データについて、所定の結果のみを提供するサービスを言う。画像マッチングサービスを行うシステムでは、画像DB41に画像データを登録する際、「サービス情報」として、一定の出力が格納されており、例えば、所定の衣服の画像が認識された場合には、その衣服を取り扱っているサイトを表示したり、所定の人物が認識された場合には、その人物の公式サイトを表示したりするサービスが提供される。
なお、ユーザに提供された画像取得(撮影)用アプリケーションが特定サービス(クライアント)専用でない場合は、クライアント指定のURLではなく所定の情報を出力する。例えば、クライアント専用ではない映画情報提供アプリケーションがユーザに提供されている場合、ユーザの撮影画像が映画ポスターのときは、DVDジャケット(クライアントであるレンタル会社提供の画像データ)とマッチングさせるが、クライアント指定のURLではなく、映画の詳細情報を出力する。
本システムにおける情報提供が「画像マッチングサービス」であるか否かは、システム設定時に決定され、画像マッチングサービスである場合は、S6にてYESとなり、ステップS7に進んで、状況判断が実行される。この状況判断は、状況判断部14によって行われ、S2,S3にて取得された画像内情報とシチュエーション情報に基づいて、画像の撮影された状況や環境、画像の送信位置等を判断し、「画像環境情報」を形成する。この「画像環境情報」もまた、RAM19に格納される。
ステップS7にて、状況判断部14は、例えば、画像内情報のうち色調抽出部24にて検出した画像の明暗状態と、撮影位置や撮影時間、送信位置等に基づき、当該画像が屋内で撮影されたものか、屋外で撮影されたものか、どこで送信されているか、などを判断し、「画像環境情報」を作成する。すなわち、画像背景が黒っぽく(暗め)であり、撮影場所が市街地、着信時間が夜間の場合には、自宅等の屋内で撮影された可能性が高いため「屋内撮影」と判断し、送信位置も合わせて、「屋内撮影」,「夜間」,「市街地送信」,「東京」のような「画像環境情報」を作成する。
これに対し、画像背景が白っぽく(明るめ)であり、撮影場所が山間部、着信時間が昼間の場合には、郊外の野外で撮影された可能性が高いため「屋外撮影」と判断し、送信位置も合わせて、「屋外撮影」,「昼間」,「山間部送信」,「那須高原」のような「画像環境情報」を作成する。一方、送信場所が高度の低い市街地で昼間であっても、撮影時間と着信時間との間に差があり、撮影場所の高度が高い場合には、山間部にて撮影した画像を市街部にて送信しているケースが想定される。その場合、「画像環境情報」としては、「屋外撮影」,「昼間」,「市街地送信」,「宇都宮」が作成される。
ここで、山間部を判断するためには、次の2種類の方法を使用する。まず、第1の方法としては、緯度・経度により、山間部をある程度大まかに規定する境界線マップを作成・保持し、取得した緯度・経度が境界線内か否かで判断する方法がある。また、第2の方法としては、各地域の標準高度を地域情報と一緒にデータ化(例えば、宇都宮駅周辺は海抜50mm)し、取得した緯度・経度からその地域を特定する。そして、データ上に保持されている標準高度と取得した高度を比較し、明らかな差(例えば、100mm以上)があれば山間部と判断する。これらの方法の何れかを使用するかの判断は、サービスで求められる処理速度と位置情報取得時の制度により判断し、スピードが求められる場合は第2の方法を優先し、取得精度が高ければ第1の方法を使用する。なお、地域に関する状況判断は、送信場所の位置情報ではなく、撮影画像の位置情報を優先して使用する。また、海岸部の場合は、前記の第1方法を使用する(第2の方法は海抜0m近傍のため使用不可)。
また、屋内/屋外については、デジタルカメラで使用されているエンジンを使用する。また、対象物による想定値(昼間の人物ならばこの程度の明るさなど)も合わせて使用する。時間軸に関しては、撮影時刻や受信時刻等のタイムをそのまま使用する。そして、これらの状況を、各撮影画像や画像送信時刻、受信時刻を考慮して判断して「画像環境情報」を取得し、サービス毎・対象物毎にこの情報に優先順位を付け、提供情報を選択し、出力する。
ステップS7にて状況判断を実行し、「画像環境情報」を得た後、ステップS8に進む。ステップS8では、先に得た「画像環境情報」等に基づき、S4,S5にて絞り込んだ画像データから、サービス選択部15により、提供すべきサービスが抽出される。前述のように、画像DB41の各画像データには、サービスDB44の「画像環境情報」と「サービス情報」が関連付けられている。図6は、画像DB41内の画像データと、サービスDB44の「画像環境情報」と「サービス情報」の一例を示す説明図である。
図6に示すように、サービスDB44には、後述するキーワード検索にて使用する「キーワード」と、「画像環境情報」、「サービス情報」が含まれており、画像DB41内の画像データと関連付けられている。例えば、図6における「画像A(花の画像)」には、
検索用データ(1)=キーワード:「花」,「コスモス」
画像環境情報:「屋内撮影」,「市街地送信」,「東京」
サービス情報:「販売ショップサイト(東京)」
検索用データ(2)=キーワード:「花」,「コスモス」
画像環境情報:「屋外撮影」,「山間部送信」
サービス情報:「図鑑」
検索用データ(3)=キーワード:「花」,「コスモス」
画像環境情報:「屋外撮影」,「市街地送信」
サービス情報:「図鑑」
などの検索用データが数多く含まれている。画像DB41には、このような検索用データを含む画像データが数百万件格納されている。
サービス選択部15は、S5にて絞り込まれた画像データについて、このようなサービスDB44から、先の「画像環境情報」に基づいて関連データを検索し、提供するサービスを抽出する。先の例で言えば、「屋内撮影」,「夜間」,「市街地送信」,「東京」のような「画像環境情報」を有する画像に対しては、それに適合するデータ(1)が抽出される。なお、「画像マッチングサービス」の情報提供システムでは、クライアントの要請により、ある画像に対しては一定のサービスが提供され、例えば、前述のデータでは、画像A(花の画像)に対して、地域に関する画像環境情報のみが参照され、当該クライアントの「販売ショップサイト(東京)」が抽出される。従って、「画像環境情報」として「大阪」が含まれている場合には、画像Aのデータから、当該クライアントの「販売ショップサイト(大阪)」が抽出される。
この他にも、例えば、送信位置による判断例としては、撮影対象が「阪神タイガースのロゴ」や「阪神タイガースの選手背番号」、「甲子園球場の外観写真」などであり、取得位置情報が「甲子園近辺(緯度・経度より判断)」の場合には、「現在の試合詳細(テキスト&動画)」や「選手の今試合の成績」を表示したり、「甲子園開催試合のチケット予約サイト」や「阪神球団のHP」を表示したりすることもできる。
また、時間による判断例としては、提供サービスが観光ガイドで、周辺情報(食べる)を出力する場合、撮影対象が観光スポット(例えば、金沢兼六園)のときは、兼六園近辺のお店の情報を出力し、その際、送信時間が朝・昼の場合は、ランチメニューのお店を出力し、送信時間が夕方・夜の場合は、ナイトスポット(居酒屋・バーなど)を出力することもできる。この時間軸による判断は、お店そのもの写真(現地撮影あるいはガイドブックから)でも有効であり、この場合も、送信時間が朝・昼ならばランチメニューを、夕方・夜ならばディナーメニューを出力するなどの対応を行う。
ステップS8にてサービス情報を抽出した後、ステップS9に進み、先に抽出したデータ(1)に含まれるサービス情報、すなわち、「販売ショップサイト(東京)」が出力される。そして、出力されたサービス情報を携帯端末1に送信し、ルーチンを抜ける。これにより、ユーザ10が撮影した画像に基づき、それと関連する所定のサービス(販売ショップサイトの提示)が実施され、システムサーバ2から携帯端末1に対し、文字データや音声データが送られ、適宜、表示、再生される。
一方、ステップS6にて、本システムにおける情報提供が「画像マッチングサービス」でない場合は、ステップS11に進み、画像内情報がさらに分析される。ステップS11では、画像内情報抽出部11のパターン抽出部23によって、画像内情報から物体のパターンが抽出される。パターン抽出は、パターンDB43を参照して行われ、撮影画像内から、認知科学的観点に基づいてパターン分析が行われ、人物や花、動物、看板、ロゴ、自動車等が抽出される。この際、パターン抽出部23は、画像から抽出された色調情報も参照する。
ステップS11にてパターン抽出を行った後、ステップS12に進み、抽出したパターンをキーワードに変換する。パターンDB43のパターンには、各パターンごとにキーワードが付されており、キーワード変換部16は、抽出されたパターンからキーワードを取り出し、S5にて絞り込まれた画像データを「キーワード」に置き換える。例えば、花のパターンならキーワード「花」、人間のパターンなら「人物」のように、パターンをキーワード化する。
パターンをキーワード化した後、ステップS13に進み、サービス選択部15により、当該キーワードを用いて、画像データに付随するサービスを絞り込む。すなわち、画像データに基づき、検索キーワードを新たに提供し、S5にて絞り込まれた画像データから、変換したキーワード(例えば「花」)を用いて、提供するサービスの内容を絞り込む。前述のように、サービスDB44には、各画像データに関連する「キーワード」が含まれており、サービス選択部15は、S5にて絞り込まれた画像データから、サービスDB44を用いて、対象となるキーワード(「花」)を含むサービスを検索、抽出する。
ステップS13にてキーワードによるサービスの絞り込みを行った後、ステップS14にて、状況判断部14による状況判断を実行する。S14の状況判断は、ステップS7と同様に行われ、取得画像の「状況情報」から、例えば、「屋外撮影」,「山間部送信」のような「画像環境情報」を作成し、ステップS15にて、これに対応するデータ(2)から提供すべきサービス(「図鑑」)を抽出する。そして、ステップS16に進み、絞り込んだサービス情報(ここでは、「図鑑」)を出力し、それを携帯端末1に送信してルーチンを抜ける。これにより、ユーザ10が撮影した画像に基づき、ユーザの状況に応じた最適なサービス(図鑑の提示)が実施され、システムサーバ2から携帯端末1に対し、文字データや音声データが送られ、適宜、表示、再生される。
そこで、一例として、当該情報提供システム(「画像マッチングサービス」ではない)を用いて、図7のような雑誌の表紙を撮影した場合について説明する。まず、ユーザ10が携帯端末1にて図7の表紙を撮影し、システムサーバ2に送信すると、システムサーバ2は、その画像をインターネット回線を介して取得する(ステップS1)。次に、システムサーバ2は、ステップS2,S3にて、画像内情報として、例えば、
画像の特徴:「周囲が暗く中央が明るい」等
特徴点数:100
文字:「XYZ」,「サプライズプライス特集」等、
色調:全体に赤っぽい(周囲に赤;図7ではハッチングにて表示)
を取得する。
また、シチュエーション情報としては、
撮影位置情報:北緯35度41分,東経139度46分
送信位置情報:北緯35度41分,東経139度46分
高度情報:海抜30m
撮影時刻時間:2010年5月20日 14:00
着信時刻情報:2010年5月20日 14:10
を取得する。
次に、ステップS4(第1次絞り込み検索)にて、データベース部17の画像DB41から、画像の特徴点数、文字、色調に適合する画像データを抽出する。ここでは、「特徴点数」が50〜150個あり、文字「XYZ」を含み、「色調」が全体に赤っぽい、画像データが抽出される。第1次絞り込み検索の後、S4にて絞り込んだ画像データに対して、第2次絞り込み検索が行われる(S5)。これにより、第1次絞り込み検索が行われた画像データから、図7の表紙と概ね一致する画像データが抽出される。なお、雑誌の表紙であれば、通常、このレベルにて、ほぼひとつの画像データに絞り込まれる。
第2次絞り込み検索の後、当該情報提供システムは「画像マッチングサービス」ではないことから、ステップS6からS11に進み、パターン抽出が行われる。ここでは、表紙の画像から「人物」の存在が抽出され、キーワードとして「人物」が抽出・選択される(S12)。一方、サービスDB44内には、画像データに対応して、キーワード「人物」と共に、その「人物名」もデータとして含まれている。そこで、図7の表紙画像においては、キーワードとして、「人物」と共に「人物名(例えば、モデル名:ABCD)」が使用され、第2次絞り込み検索後の画像データから、サービスDB44を用いて、提供されるサービスが抽出される(S13)。
ここで、図7の表紙画像から、「XYZ」という文字が雑誌名を意味することは、ユーザは容易に認識できる。従って、「XYZ」なる雑誌の情報が得たい場合には、「XYZ」をキーワードとしてインターネット検索が容易に行える。しかしながら、モデルに関する情報は当該写真しかなく、ユーザは、この人物を調べるための情報を表紙からは入手できない。すなわち、モデル名を知りたい場合には、ネット検索を行うキーワードがなく、表紙のみではその要望を満たすことはできない。
これに対し、当該情報提供システムは、表紙画像から人物を認識し、それを人物名(モデル名)に変換して情報を提供する。ユーザに対しては、まず、その人物名が提供され、併せて、その人物に関する情報も提供される。従って、ユーザは、本システムにより、それまで不明であった人物名が明らかとなり、提供された人物関連情報の他にも情報を得たい場合には、その人物名にて改めて検索を行うことも可能となる。つまり、当該情報提供システムでは、ユーザが認識、取得しづらい情報に注視し、それを的確に提供することにより、検索キーワード提供の新しい形を構築している。
キーワードによってサービスを絞り込んだ後、状況判断を実行し(S14)、サービス内容を絞り込む(S15)。例えば、「屋内」,「夜間」のような「画像環境情報」の場合には、ユーザは手持ちの雑誌の表紙を自宅にて撮影、送信していることが推認される。従って、ユーザは、雑誌の内容に関する情報は既に有していると考えられ、提供するサービスとしては、「モデル」に関する情報や、「モデルが着用している衣服」に関する情報、「モデル着用品の販売サイト」などが選択される。
また、「屋内」,「昼間」のような「画像環境情報」の場合には、例えば、OLが銀行の待ち時間等に雑誌を見るシーンや、昼食時の雑誌購買などが想定される。従って、ユーザは、「サプライズプライス特集」の情報を得たい、と考えていることが推認され、提供するサービスとして、その特集に関する情報も付加する。そして、「画像環境情報」を用いて絞り込んだ各種サービスを、リスト形式等にて携帯端末1に送信する。
本発明は前記実施例に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。
例えば、前述の実施例では、花の画像から販売ショップや図鑑の情報を提供するサービスや、雑誌表紙画像からモデル名や特集内容を提供するサービスを例にとって、本発明による情報提供サービスを説明したが、その適用対象は前述のものには限定されず、次のようなシステムにも適用可能である。なお、前述の実施例における処理はあくまでも基本処理であり、提供するサービスにより、適宜例外事項等が発生する場合がある。
(1)存在証明
保安や見回り等のセキュリティシステムやスタンプラリーなどにおいて、所定の場所の目標や看板等を撮影し、その場所に送信者が存在することを証明するシステムにも使用できる。この場合、システムサーバ側では、携帯端末にて送られてきた画像を認識・解析し、これが登録されている画像と一致している場合には、送信者の存在証明を発行(発信)するサービスを行う。
(2)マニュアルサービス
美術館や博物館等における作品解説や、家電・家具等の説明書や動画マニュアルの提供、社内教育などの現場ツールにも使用できる。美術館や博物館等では、情報を得たい作品や展示物の画像をシステムサーバ側に送信すると、システムサーバはその画像を認識・解析し、ユーザ側に解説等の関連情報を送信する。家電・家具等の場合は、当該家電製品の画像やマニュアルから取得した画像を送信すると、関連する取扱説明書や、組み立て手順を示した動画などがユーザ側に送信される。社内教育等では、各現場にて、設備や機械、部品等を撮影して送信すると、重いマニュアル等を持ち運ぶことなく、設備等に関連する情報をその場で取得することができる。
(3)学習サービス
課外授業等の現場ツールとしても使用できる。この場合、例えば、野外活動時に花や昆虫、鳥、雲、風景などを撮影し、それをシステムサーバ側に送信することにより、携帯端末側にて図鑑や地図などが表示される。これにより、野外活動の現場にて、花や昆虫、鳥、雲などの名前や、各生物の生態などの情報を即座に得ることができる。また、キャンプ時の道具の取り扱いや、素材写真からクッキングレシピを提供することも可能である。さらに、不明な英単語や日本語を撮影して送ることにより、辞書を表示することもでき、電子辞書のような使い方や外国人向けガイド・メニューも可能である。
(4)ショッピングツール
通販雑誌や各種マガジンとの連携により、コマースサービスも提供できる。例えば、通販雑誌のカタログから製品写真を撮り、それをシステムサーバ側に送信することにより、携帯端末側に、通販サイトや商品取扱店のHPを提示したり、画像を送った衣服を着用したモデルの動画を送信したりすることもできる。
(5)テレビ番組連携ツール
ショッピングツール(前記(4))の機能をテレショッピングやドラマ等と連携させることもできる。つまり、本発明は、画像のみならず、動画にも対応可能であり、例えば、ユーザが、番組内の商品やタレントを撮影しシステムサーバ側に送信することにより、ダイレクトにテレショップに電話コールできたり、携帯端末側にテレゴング等のアンケートページを表示させたりすることができる。また、スポンサーのHPへの遷移も可能となる。
(6)予約システム
タウン情報誌などの店舗画像や店舗実写真からクーポンを提供したり、予約サイトに連携させたりするサービスも可能である。その際、写真の位置情報から、地図や近隣の関連するお店の情報などを提供することもできる。
(7)観光ガイド
散策中に、お店等の外観写真や看板写真をシステムサーバ側に送信することにより、携帯端末側に、そのお店のお薦めメニューやクーポン、あるいは、現在の空席情報などのオンタイム情報を提供することも可能である。本発明は、現場ツールとしてのサービスが大きなメリットのひとつであり、大手観光ガイド誌に載らないような現地の情報(現地観光協会主催等)や口コミにも対応可能である。
(8)その他のサービス
番組表やテレビガイドなとから画像(あるいは、番組タイトルや出演者名)を取得し、番組内容や出演者プロフィールを提供したり、所定番組の開始時間に注意喚起を行うリマインダ機能を提供したりすることもできる。また、配水管等の修理業者のサービスとして、現場写真からラフ見積表を提供することもできる。
1 携帯端末
2 システムサーバ(画像認識装置)
3 制御処理部(CPU)
4 データ格納部
5 データ送受信部
6 タイマ
7 バスライン
10 ユーザ
11 画像内情報抽出部
12 シチュエーション情報取得部
13 データ検索部
14 状況判断部
15 サービス選択部
16 キーワード変換部
17 データベース部
18 ROM
19 RAM
21 特徴点抽出部
22 文字認識部
23 パターン抽出部
24 色調抽出部
31 位置情報取得部
32 時間情報取得部
41 画像データベース
42 画像内情報データベース
43 パターンデータベース
44 サービスデータベース
51 特徴点データベース
52 文字情報データベース
53 色調データベース

Claims (11)

  1. コンピュータを利用した画像認識装置であって、
    前記コンピュータは、
    取得した画像の中から、前記画像に含まれる所定の画像内情報を抽出する画像内情報抽出部と、
    前記画像を撮影した場所及び/又は時間と、前記画像が送信された場所及び/又は前記画像が取得された時間のうち、少なくとも何れか1つを含む状況情報を取得するシチュエーション情報取得部と、
    前記画像内情報と関連付けられた状態で画像データが格納されたデータベース部と、
    前記画像内情報抽出部にて抽出した前記画像内情報に基づいて、前記データベース部から、前記画像データを検索するデータ検索部と、
    前記シチュエーション情報取得部にて取得した前記状況情報に基づいて、前記データ検索部にて検索・取得された前記画像データを絞り込む状況判断部と、を有することを特徴とする画像認識装置。
  2. 請求項1記載の画像認識装置において、
    前記状況判断部は、前記シチュエーション情報取得部にて取得した前記状況情報に基づいて、前記画像の撮影された状況及び/又は前記画像が送信された状況を示す画像環境情報を作成し、該画像環境情報に基づいて、前記データ検索部にて検索・取得された画像データを絞り込み、
    前記データベース部は、前記画像データに対応する前記画像環境情報が、前記各画像データごとに格納されたサービスデータベースを有することを特徴とする画像認識装置。
  3. 請求項1又は2記載の画像認識装置において、
    前記データベース部は、前記画像データに付随するサービス情報の内容が、前記各画像データごとに格納されたサービスデータベースを有し、
    前記コンピュータは、
    前記サービスデータベースから、前記状況判断部にて絞り込まれた前記画像データに対応するサービス情報を抽出するサービス選択部をさらに有することを特徴とする画像認識装置。
  4. 請求項3記載の画像認識装置において、
    前記画像内情報抽出部は、取得した前記画像の中から、該画像に含まれる所定のパターンを抽出するパターン抽出部を有し、
    前記データベース部は、前記パターン及び前記パターンごとに設定されたキーワードが格納されたパターンデータベースを有し、
    前記コンピュータは、
    前記パターン抽出部にて抽出された前記パターンに基づいて、前記パターンデータベースからキーワードを選択し、前記データ検索部にて検索・取得された画像データを、前記キーワードに置き換えるキーワード変換部をさらに有し、
    前記サービス選択部は、前記キーワードを用いて、前記画像データに対応するサービス情報を抽出することを特徴とする画像認識装置。
  5. 請求項1〜4の何れか1項に記載の画像認識装置において、
    前記画像内情報抽出部は、前記画像内情報として、前記画像の特徴点とその個数、該画像中の文字、該画像の色調を抽出し、
    前記特徴点とその個数を抽出する特徴点抽出部と、
    前記画像中の文字を抽出する文字認識部と、
    前記画像の色調を抽出する色調抽出部と、を有することを特徴とする画像認識装置。
  6. 請求項5記載の画像認識装置において、
    前記データ検索部は、
    前記画像内情報のうち、前記特徴点の個数、前記画像中の文字、及び、前記画像の色調に基づいて、前記データベース部から前記画像データを検索する第1次絞り込み検索と、
    前記第1次絞り込み検索によって検索された前記画像データから、前記特徴点に基づいて、前記画像データをさらに検索する第2次絞り込み検索と、を実行することを特徴とする画像認識装置。
  7. コンピュータを利用した画像認識方法であって、
    取得した画像の中から、前記画像に含まれる所定の画像内情報を抽出するステップと、
    前記画像を撮影した場所及び/又は時間と、前記画像が送信された場所及び/又は前記画像が取得された時間のうち、少なくとも何れか1つを含む状況情報を取得するステップと、
    前記画像内情報に基づいて、前記画像データを検索するステップと、
    前記状況情報に基づいて、前記画像の撮影された状況及び/又は前記画像が送信された状況を示す画像環境情報を作成するステップと、
    前記画像環境情報に基づいて、検索・取得された前記画像データを絞り込むステップと、を有することを特徴とする画像認識方法。
  8. コンピュータを利用した画像認識方法であって、
    取得した画像の中から、前記画像に含まれる所定の画像内情報を抽出するステップと、
    前記画像を撮影した場所及び/又は時間と、前記画像が送信された場所及び/又は前記画像が取得された時間のうち、少なくとも何れか1つを含む状況情報を取得するステップと、
    前記画像内情報に基づいて、前記画像データを検索するステップと、
    取得した前記画像の中から、該画像に含まれる所定のパターンを抽出するステップと、
    前記パターン抽出部にて抽出された前記パターンに基づいて、キーワードを選択するステップと、
    前記画像内情報に基づいて検索・取得された前記画像データを、前記キーワードに置き換えるステップと、
    前記キーワードを用いて、前記画像データに付随するサービス情報を検索するステップと、
    前記状況情報に基づいて、前記画像の撮影された状況及び/又は前記画像が送信された状況を示す画像環境情報を作成するステップと、
    前記画像環境情報に基づいて、検索・取得された前記サービス情報を絞り込むステップと、を有することを特徴とする画像認識方法。
  9. 請求項7又は8記載の画像認識方法において、
    前記画像内情報として、前記画像の特徴点とその個数、該画像中の文字、該画像の色調を抽出し、
    前記画像内情報のうち、前記特徴点の個数、前記画像中の文字、及び、前記画像の色調に基づいて、前記画像データを検索する第1次絞り込み検索と、
    前記第1次絞り込み検索によって検索された前記画像データから、前記特徴点に基づいて、前記画像データをさらに検索する第2次絞り込み検索と、を実行することを特徴とする画像認識方法。
  10. ユーザが携帯端末にて撮影した画像を、コンピュータを利用したシステムサーバにて取得・解析し、前記ユーザの前記携帯端末に対し、前記画像に対応したサービスを提供する情報提供システムであって、
    前記コンピュータは、
    取得した前記画像の中から、前記画像に含まれる所定の画像内情報を抽出する画像内情報抽出部と、
    前記画像を撮影した場所及び/又は時間と、前記画像が送信された場所及び/又は前記画像が取得された時間のうち、少なくとも何れか1つを含む状況情報を取得するシチュエーション情報取得部と、
    前記画像内情報と関連付けられた状態で画像データが格納されると共に、前記画像データに基づいて提供されるサービスの内容が前記各画像データごとに格納されたデータベース部と、
    前記画像内情報抽出部にて抽出した前記画像内情報に基づいて、前記データベース部から、前記画像データを検索するデータ検索部と、
    前記シチュエーション情報取得部にて取得した前記状況情報に基づいて、前記データ検索部にて検索・取得された前記画像データを絞り込む状況判断部と、
    前記データベース部から、前記状況判断部にて絞り込まれた前記画像データに対応するサービス情報を抽出するサービス選択部と、
    前記サービス選択部にて抽出したサービス情報に基づくサービスを前記携帯端末に送信するデータ送受信部と、を有することを特徴とする情報提供システム。
  11. 請求項10記載の情報提供システムにおいて、
    前記画像内情報抽出部は、取得した前記画像の中から、該画像に含まれる所定のパターンを抽出するパターン抽出部を有し、
    前記データベース部は、前記パターン及び前記パターンごとに設定されたキーワードが格納されたパターンデータベースを有し、
    前記コンピュータは、
    前記パターン抽出部にて抽出された前記パターンに基づいて、前記パターンデータベースからキーワードを選択し、前記データ検索部にて検索・取得された画像データを、前記キーワードに置き換えるキーワード変換部をさらに有し、
    前記サービス選択部は、前記キーワードを用いて、前記画像データに対応するサービス情報を抽出することを特徴とする情報提供システム。
JP2010127726A 2010-06-03 2010-06-03 画像認識装置及び画像認識方法並びに情報提供システム Pending JP2011253424A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010127726A JP2011253424A (ja) 2010-06-03 2010-06-03 画像認識装置及び画像認識方法並びに情報提供システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010127726A JP2011253424A (ja) 2010-06-03 2010-06-03 画像認識装置及び画像認識方法並びに情報提供システム

Publications (1)

Publication Number Publication Date
JP2011253424A true JP2011253424A (ja) 2011-12-15

Family

ID=45417296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010127726A Pending JP2011253424A (ja) 2010-06-03 2010-06-03 画像認識装置及び画像認識方法並びに情報提供システム

Country Status (1)

Country Link
JP (1) JP2011253424A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013164812A (ja) * 2012-02-13 2013-08-22 Nippon Telegr & Teleph Corp <Ntt> 有用情報提示システム及び有用情報提示システムの制御方法
JP2013164815A (ja) * 2012-02-13 2013-08-22 Nippon Telegr & Teleph Corp <Ntt> 有用情報提示システム及び有用情報提示システムの制御方法
JP2013164794A (ja) * 2012-02-13 2013-08-22 Nippon Telegr & Teleph Corp <Ntt> 有用情報提示システム及び有用情報提示システムの制御方法
JP2013205943A (ja) * 2012-03-27 2013-10-07 Sony Corp 情報処理装置、情報処理方法、プログラムおよび端末
KR101541254B1 (ko) * 2014-11-13 2015-08-03 이호석 의인화된 캐릭터 이미지를 이용한 서비스 제공 시스템 및 방법
CN105159988A (zh) * 2015-08-28 2015-12-16 广东小天才科技有限公司 一种浏览照片的方法及装置
JP2016091079A (ja) * 2014-10-30 2016-05-23 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
KR20160109049A (ko) * 2015-03-09 2016-09-21 한국전자통신연구원 고차 라플라시안 오브 가우시안 커널을 이용한 이미지의 특징점 추출 장치 및 방법
WO2018110663A1 (ja) * 2016-12-15 2018-06-21 旭化成株式会社 サービス状況管理システム
CN105023163B (zh) * 2015-06-23 2018-08-21 杭州沃朴物联科技有限公司 一种基于混沌图形标签的防伪系统及方法
WO2019102954A1 (ja) * 2017-11-21 2019-05-31 株式会社バイオーム 判別装置、判別方法、判別システム、データベース構造
JP2019211833A (ja) * 2018-05-31 2019-12-12 Line株式会社 報酬付与方法、報酬付与装置、報酬付与プログラム
JP2019215707A (ja) * 2018-06-13 2019-12-19 シャープ株式会社 情報端末、及び情報処理システム

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013164812A (ja) * 2012-02-13 2013-08-22 Nippon Telegr & Teleph Corp <Ntt> 有用情報提示システム及び有用情報提示システムの制御方法
JP2013164815A (ja) * 2012-02-13 2013-08-22 Nippon Telegr & Teleph Corp <Ntt> 有用情報提示システム及び有用情報提示システムの制御方法
JP2013164794A (ja) * 2012-02-13 2013-08-22 Nippon Telegr & Teleph Corp <Ntt> 有用情報提示システム及び有用情報提示システムの制御方法
JP2013205943A (ja) * 2012-03-27 2013-10-07 Sony Corp 情報処理装置、情報処理方法、プログラムおよび端末
JP2016091079A (ja) * 2014-10-30 2016-05-23 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
KR101541254B1 (ko) * 2014-11-13 2015-08-03 이호석 의인화된 캐릭터 이미지를 이용한 서비스 제공 시스템 및 방법
WO2016076640A1 (ko) * 2014-11-13 2016-05-19 이호석 의인화된 캐릭터 이미지를 이용한 서비스 제공 시스템 및 방법
KR102302621B1 (ko) * 2015-03-09 2021-09-16 한국전자통신연구원 고차 라플라시안 오브 가우시안 커널을 이용한 이미지의 특징점 추출 장치 및 방법
KR20160109049A (ko) * 2015-03-09 2016-09-21 한국전자통신연구원 고차 라플라시안 오브 가우시안 커널을 이용한 이미지의 특징점 추출 장치 및 방법
CN105023163B (zh) * 2015-06-23 2018-08-21 杭州沃朴物联科技有限公司 一种基于混沌图形标签的防伪系统及方法
CN105159988B (zh) * 2015-08-28 2018-08-21 广东小天才科技有限公司 一种浏览照片的方法及装置
CN105159988A (zh) * 2015-08-28 2015-12-16 广东小天才科技有限公司 一种浏览照片的方法及装置
WO2018110663A1 (ja) * 2016-12-15 2018-06-21 旭化成株式会社 サービス状況管理システム
JPWO2018110663A1 (ja) * 2016-12-15 2019-10-24 旭化成株式会社 サービス状況管理システム
US10878347B2 (en) 2016-12-15 2020-12-29 Asahi Kasei Kabushiki Kaisha Service status management system
WO2019102954A1 (ja) * 2017-11-21 2019-05-31 株式会社バイオーム 判別装置、判別方法、判別システム、データベース構造
JP2019095949A (ja) * 2017-11-21 2019-06-20 株式会社バイオーム 判別装置、判別方法、判別プログラム、判別システム
US11048969B2 (en) 2017-11-21 2021-06-29 Biome Inc. Identification device, identification method, identification system, and database
JP2019211833A (ja) * 2018-05-31 2019-12-12 Line株式会社 報酬付与方法、報酬付与装置、報酬付与プログラム
JP7253329B2 (ja) 2018-05-31 2023-04-06 Line株式会社 報酬付与方法、報酬付与装置、報酬付与プログラム
JP2019215707A (ja) * 2018-06-13 2019-12-19 シャープ株式会社 情報端末、及び情報処理システム
JP7123646B2 (ja) 2018-06-13 2022-08-23 シャープ株式会社 情報端末、及び情報処理システム

Similar Documents

Publication Publication Date Title
JP2011253424A (ja) 画像認識装置及び画像認識方法並びに情報提供システム
US11182609B2 (en) Method and apparatus for recognition and matching of objects depicted in images
CN108431801B (zh) 为与用户关联的图像生成标签
CN103069415B (zh) 用于图像处理的计算机实施的方法、计算机程序产品和计算机系统
CN103631819B (zh) 一种图片命名的方法及系统
US8977639B2 (en) Actionable search results for visual queries
CN103988202A (zh) 基于索引和搜索的图像吸引力
CN102214222B (zh) 通过手机摄像获取景物资讯的预分类及交互系统和方法
EP2003611A9 (en) Information presentation system, information presentation terminal, and server
US20170199899A1 (en) Image processing system and image processing method
JP2009526302A (ja) デジタルデータに対するタグ付け方法及びシステム
US20100017290A1 (en) Apparatus, method and program for attaching advertisement
WO2008129383A1 (en) Method, apparatus and computer program product for determining relevance and/or ambiguity in a search system
WO2016145844A1 (zh) 一种图片排序方法和相应的图片存储显示设备
TW201448585A (zh) 利用行動電話及雲端可視化搜尋引擎之即時物體掃描
KR20150007403A (ko) 인물 인식 방법, 그리고 인물 정보 데이터 운용 방법 및 장치
CN107562954B (zh) 基于移动终端的推荐搜索方法、装置以及移动终端
JP2003319033A (ja) 携帯通信端末情報入力システム、携帯通信端末、携帯通信端末用プログラム、解析サーバ、及び、携帯通信端末情報入力方法
JP6513009B2 (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
CN107945353B (zh) 一种基于深度学习的自助导游系统
KR100706945B1 (ko) 이동단말기의 현재위치에 따른 이미지 패턴 검색 시스템 및방법
JP2007102362A (ja) 分類カテゴリ自動形成装置及びデジタル画像コンテンツ自動分類装置並びにデジタル画像コンテンツ管理システム
JPH10124655A (ja) デジタルアルバムの作成装置及びデジタルアルバム装置
KR102259451B1 (ko) 지도 정보 제공 장치 및 방법
JP4752628B2 (ja) 描画検索システム、描画検索方法及び描画検索端末