JP2014106692A - 画像処理装置、画像処理方法、画像処理システム及びプログラム - Google Patents

画像処理装置、画像処理方法、画像処理システム及びプログラム Download PDF

Info

Publication number
JP2014106692A
JP2014106692A JP2012258557A JP2012258557A JP2014106692A JP 2014106692 A JP2014106692 A JP 2014106692A JP 2012258557 A JP2012258557 A JP 2012258557A JP 2012258557 A JP2012258557 A JP 2012258557A JP 2014106692 A JP2014106692 A JP 2014106692A
Authority
JP
Japan
Prior art keywords
information
image processing
image
terminal
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012258557A
Other languages
English (en)
Other versions
JP6025522B2 (ja
JP2014106692A5 (ja
Inventor
Yumiko Uchida
悠美子 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012258557A priority Critical patent/JP6025522B2/ja
Priority to US14/090,957 priority patent/US9208379B2/en
Publication of JP2014106692A publication Critical patent/JP2014106692A/ja
Publication of JP2014106692A5 publication Critical patent/JP2014106692A5/ja
Application granted granted Critical
Publication of JP6025522B2 publication Critical patent/JP6025522B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 物体を撮影した現実空間内に拡張情報が対応づけられていることを示す特徴情報が2つ以上存在する場合に、それらの関係性を拡張情報で表現するために、物体から得られる特徴情報の全ての組み合わせを定義することは困難であった。
【解決手段】 拡張情報が対応づいていることを示す特徴情報から得られる属性または特徴情報が抽出された位置関係に応じて、拡張情報を加工することにより、特徴情報の組み合わせごとに拡張情報を定義することなく、簡単に拡張情報を加工することができる。
【選択図】 図7

Description

本発明は、拡張現実情報を処理する画像処理装置、画像処理方法、画像処理システム及びプログラムに関する。
カメラで撮像した現実空間の映像・画像に、拡張情報を重ね合わせて表示する拡張現実感技術が普及している。拡張現実感技術では、撮像結果内の画像特徴量を用いて、現実空間の物体に拡張現実感を与える画像あるいは映像(ARコンテンツ)を対応付けて重畳表示することができる。
近年は特に、紙ドキュメントの画像特徴量や、紙ドキュメントに印刷したマーカに対してARコンテンツを対応付けておき、撮影機能を持った端末で紙ドキュメントを撮影することで、ARコンテンツを再生可能にするという利用形態の普及が進んでいる。この利用形態においては、ドキュメント同士に相互関係がある場合も多い。ドキュメントを撮影した現実空間内に、ARマーカ若しくは画像特徴量が2つ以上存在する場合には、それらを用いてドキュメントの関係性をARコンテンツで表現したいというニーズがある。
特許文献1においては、撮影した現実空間内に、ARマーカが2つ以上存在する場合に、事前に定義されたARマーカの組み合わせに応じてARコンテンツの表示を変化させる技術が開示されている。また、特許文献2においては、撮影した現実空間内に同一のARマーカが2つ以上存在する場合に、マーカを単一で閲覧する場合とは異なるARコンテンツを表示する技術か開示されている。
特開2010−26818 特開2012−141779
これらの先行技術では、マーカなどの特徴情報同士の組み合わせを事前に定義しておくことで、撮像した現実空間内に特徴情報が2つ以上存在する場合に、その組み合わせに応じてARコンテンツの表示を変更することができる。
しかし、いずれも特徴情報同士の組み合わせを定義する必要があり、特徴情報数が増加すると対応付けが困難である。また、特徴情報の組み合わせに対して一通りの表示形式しか対応付けることができないといった課題がある。
本発明は、上記の問題に鑑みてなされたものであり、特徴情報同士の組み合わせによるARコンテンツを個別に定義することなく、拡張情報が対応づいている特徴情報が2つ以上撮影された場合に、複数の拡張情報を用いて新たな拡張情報を柔軟に生成する画像処理装置を提供することを目的とする。また、その方法、システム及びプログラムを提供することを目的とする。
本発明に係る画像処理装置は以下の構成を備える。即ち、画像を撮像する端末と接続可能な画像処理装置であって、撮像された画像から抽出された特徴情報から拡張情報と属性情報とを取得する取得手段と、前記特徴情報が複数抽出された場合、前記属性情報に基づいて、前記取得手段で取得された複数の拡張情報を用いて新たな拡張情報を少なくとも1つ生成する処理手段と、前記処理手段で生成された新たな拡張情報を前記端末に送信する送信手段。
本発明に係る画像処理装置は以下の構成を備える。即ち、画像を撮像する端末と接続可能な画像処理装置であって、撮像された画像から抽出された特徴情報から拡張情報を取得する取得手段と、前記特徴情報が複数抽出された場合、抽出されたそれぞれの位置の関係に基づいて、前記取得手段で取得される複数の拡張情報を用いて新たな拡張情報を少なくとも1つ生成する処理手段と、前記処理手段で生成された新たな拡張情報を前記端末に送信する送信手段。
本発明によれば、物体を撮影した現実空間内に拡張情報が対応付いていることを示す特徴情報が2つ以上存在する場合、複数の拡張情報を用いて新たな拡張情報を柔軟に生成処理することができる。
第1の実施形態の装置の構成図 本実施形態のAR端末の模式図 第1の実施形態のデータ形式図 第1の実施形態におけるコンテンツ処理の模式図 第2の実施形態におけるコンテンツのデータ形式図 第1の実施形態におけるコンテンツ処理の模式図 第1の実施形態の全体処理の流れを示すフローチャート 第1の実施形態のコンテンツ処理判別の流れを示すフローチャート 第2の実施形態の装置の構成図 第2の実施形態のデータ形式図 第2の実施形態におけるコンテンツ処理の模式図 第2の実施形態におけるコンテンツのデータ形式図 第2の実施形態におけるコンテンツ処理の模式図 第2の実施形態の全体処理の流れを示すフローチャート 第3の実施形態のデータ形式図 第3の実施形態におけるコンテンツ処理の模式図 第4の実施形態のデータ形式図 第4の実施形態におけるコンテンツ処理の模式図
以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。
(第1の実施形態)
図1(A)は、本実施形態を適用する拡張現実システムを示す構成図である。本実施形態の拡張現実システムは、AR端末101とサーバ109で構成され、AR端末101とサーバ109は、通信部108および通信部114を介して、インターネットやイントラネット経由で接続可能とすることができる。インターネットやイントラネットへの接続には、たとえば無線通信や携帯電話回線を利用することができる。
AR端末101は、少なくとも現実空間の撮影機能を備えたタブレット端末、携帯電話端末、デジタルカメラ等であり、撮像した映像に拡張現実感を与える画像あるいは映像(ARコンテンツ)を重畳表示することができる。CPU102は、ROM103に格納されている制御プログラムを実行することにより、AR端末101の制御をおこなう。ROM103は、AR端末101が実行するプログラムを格納する。AR端末101がプログラムを実行することにより、当該端末を含むシステムは後述するフローチャートに示す各処理を実行するための各種手段として機能する。RAM104は、各構成要素からの各種データを一時記憶する。また、プログラムを展開し、AR端末101によって実行する。撮影部105は、光学装置および撮像素子等によって構成され、CPU102からの指示に応じて、被写体の撮像をおこなう。入力部106は、操作ボタン、タッチパネル等で構成され、ユーザからの指示を受け付ける。表示部107は、液晶パネル等で構成され、本実施形態の処理対象となるデータを表示する。
サーバ109は、AR端末101に提供するARコンテンツを管理・処理するものである。CPU110は、ROM111に格納されている制御プログラムを実行することにより、サーバ109の制御をおこなう。ROM111は、サーバ109が実行するプログラムを格納する。CPU110がプログラムを実行することにより、当該システムは後述するフローチャートに示す各処理を実行するための各種手段として機能する。RAM112は、各構成要素からの各種データを一時記憶する。また、プログラムを展開し、サーバ109によって実行する。記憶装置113は、本実施形態の処理対象となるデータを保持している。たとえば、ARコンテンツの識別をおこなうための識別情報やARコンテンツのデータを保持している。記憶装置113としては、フラッシュメモリ、HDDなどを用いることができる。
なお、本実施形態では後述するフローチャートの各ステップに対応する処理を、CPU102およびCPU110を用いてソフトウェアで実現するが、その処理の一部又は全部を電子回路などのハードウェアで実現するようにしても良い。
図1(B)は、本実施形態におけるデータ処理部分の構成を示した構成図である。AR端末101内は、撮影部115を用いて現実空間を画像あるいは映像として撮影した撮像結果をサーバ109に送信する。その上で、撮像結果に重畳表示するコンテンツをサーバ109から受信し、表示部107に表示する。
サーバ109では、受信した撮像結果に基づいて、AR端末101に拡張現実コンテンツを提供する。まず、撮像結果を認識部116で解析し、ARマーカまたは画像特徴などの特徴情報を認識する。(認識部116はAR端末側にあっても良い。)この特徴情報は、対応づいているARコンテンツを識別するための識別情報になる。
識別情報に対応付けられたコンテンツおよび属性情報を、コンテンツ取得部117および属性情報取得部118によって取得する。
ここで、サーバ109は、属性情報に応じたコンテンツの処理方法を定義するルール記憶部120を保持している。ルール記憶部120に記憶されたルール(定義情報)に従い、コンテンツ処理方法判定部119で処理方法を判定し、コンテンツ処理部121を用いて加工処理をおこなう。ここで処理されたコンテンツを、AR端末101へ送信する。AR端末101は、サーバ109から受信したARコンテンツをコンテンツ再生部122で、表示部107に表示する。
図2は、AR端末101を用いて拡張現実情報を閲覧する様子を示した図である。図2(A)は、タブレット端末であるAR端末101の概観を示した図である。図2(B)は、AR端末101を紙面201上にかざしている状態である。ここでは、紙面201内に埋め込まれた特徴情報に基づき、ARコンテンツ202が拡張現実情報として、AR端末101の画面に表示されている。次に、図2(C)は、図2(B)とは別の紙面203上にAR端末101をかざしている状態である。ここでは、紙面203内に埋め込まれた特徴情報に基づき、ARコンテンツ204が拡張現実情報として、AR端末101の画面に表示されている。最後に、図2(D)は、紙面201と紙面203上にAR端末101をかざしている状態である。このときAR端末101には、図2(B)および図2(C)で表示されていたコンテンツとは異なるARコンテンツ205が表示されている。ARコンテンツ205は、ARコンテンツ202およびARコンテンツ204に対して何らかの処理を施したものである。このように、ユーザは、紙面201・紙面203をそれぞれ単体で閲覧しているときには得られなかった別のARコンテンツ205を閲覧することができる。
図3は、本装置において扱うデータの形式を示した図である。図3(A)に示すデータ301は、撮像結果に含まれる画像特徴量などの特徴情報とARコンテンツおよび属性情報の対応付けを管理している。特徴情報は、ARコンテンツを識別するための識別情報として使われる。属性情報は識別情報に対応付くものでも良いし、ARコンテンツに対応付くものであっても良い。属性情報の例としては、ARコンテンツの分類を示す情報や、分類に応じた付加情報、ドキュメントのバージョン情報、作成日などがある。図3(B)に示すコンテンツ処理ルール302は、属性情報の組み合わせに応じたARコンテンツの処理内容を定義した定義情報である。コンテンツ処理ルール302は、ルール記憶部120が管理する。なお、ARコンテンツのデータとしては、XMLのような構造化されたデータを用いることができ、その場合にはARコンテンツ同士の合成や差分をとるといった処理を容易におこなうことができる。
また、本例では識別情報の例として画像特徴量を用いる構成とした。画像特徴量は、局所特徴点とその周辺の画像特徴とに基づいて当該特徴点に対応する局所特徴量を算出することで得られる。具体的には、Harris作用素を作用させて得られた画像上の画素について、当該画素及び当該画素の8近傍にある画素(合計9画素)の画素値を調べる。そして、当該画素値が局所極大になる(当該9画素の中で当該画素の画素値が最大になる)点を局所特徴点として抽出する。尚、局所特徴点を抽出可能な方法であれば、上述のHarris作用素による特徴点抽出方法に限らず、どのような特徴点抽出方法でも適用可能である。そして、局所特徴点周辺の所定範囲を4×4の16ブロックに分割し、それぞれのブロックについて、それぞれ45度ずつ異なる8方向の勾配方向ヒストグラムを作成する。その128次元の特徴ベクトルを局所特徴量とする。このような局所特徴量をSIFT特徴量と呼んでいる。尚、局所特徴量を算出可能な方法であれば、上述したような特徴量算出方法に限らず、どのような特徴量算出方法でも適用可能である。
その他、QRコード(登録商標)やバーコードのようなマーカ情報をARコンテンツの識別情報としてもよい。この場合には、画像特徴量を用いる場合より、管理に必要なデータ量を減らすことができる。
図4は、特徴情報を埋め込んだドキュメントおよびARコンテンツの具体例を示したものである。図4(A)(B)は、AR端末101を用いてドキュメント401およびドキュメント402をそれぞれ単体で閲覧した場合のAR端末101上における表示を示している。ここでは、ドキュメント401とドキュメント402は、それぞれA社とB社の決算報告書であり、対応付いたARコンテンツとして、各社の業績がグラフ表示されている。ARコンテンツ403は、A社の売上高、売上総利益、営業利益、純利益を表わしており、ARコンテンツ404は、B社の売上高、売上総利益、営業利益、純利益を表わしている。これに対し、図4(C)は、AR端末101を用いてドキュメント401およびドキュメント402を同時に閲覧した場合の、AR端末101上における表示を示している。以降、同時に閲覧するとは、ドキュメント401およびドキュメント402が近くに存在しており、AR端末101の画面上に2つのドキュメントが共に表示されている状態を指す。即ち、2つの特徴情報が端末101またはサーバ109で認識される状態である。ARコンテンツ405は、A社とB社の業績の相違を比較可能なように1つのグラフとして表現したものとなっている。この例では、ユーザがドキュメント401およびドキュメント402を同時に閲覧することで、特別な操作をおこなうことなく、A社とB社の業績の相違を比較可能になる。
図5は、ARコンテンツ403〜ARコンテンツ405のデータ形式を示した図である。ここに示したデータ形式に対して表計算ソフトを用いることで、ARコンテンツ403〜ARコンテンツ405に示したようなグラフ表示をおこなうことができる。図5(A)および図5(B)は、それぞれARコンテンツ403、ARコンテンツ404に対応するデータである。それぞれ、A社およびB社の売上高、売上総利益、営業利益、純利益が数値データとして管理されている。一方、図5(C)は、ARコンテンツ405に対応するデータである。このデータは、A社とB社の売上高、売上総利益、営業利益、純利益を集計したものとなっており、表計算ソフトなどで明らかである公知の技術を適用することで容易にARコンテンツ405を表示することができる。ARコンテンツ405は、サーバ109側で予め記憶されている必要はない。ドキュメント401,402がAR端末101で同時に閲覧され、サーバ109側でそれぞれの特徴情報からARコンテンツ403,404とその属性情報とが得られてから、属性情報に基づいてARコンテンツ403,404を処理して生成できる。
図6は、特徴情報を埋め込んだドキュメントおよびARコンテンツの別の具体例を示したものである。図6(A)(B)は、AR端末101を用いてドキュメント401およびドキュメント601をそれぞれ単体で閲覧した場合のAR端末101上における表示を示している。ここでは、ドキュメント401とドキュメント601は、それぞれA社の2012年1Q決算報告書とA社の2011年4Q決算報告書であり、対応づいたARコンテンツとして、各期の業績がグラフ表示されている。ARコンテンツ403は、2012年1Qの売上高、売上総利益、営業利益、純利益を表わしており、ARコンテンツ602は、2011年4Qの売上高、売上総利益、営業利益、純利益を表わしている。これに対し、図6(C)は、AR端末101を用いてドキュメント401およびドキュメント601を同時に閲覧した場合のAR端末101上における表示を示している。ARコンテンツ603は、2012年1Qと2011年4Qの業績の相違を比較可能なように1つのグラフとして表現したものとなっている。ARコンテンツ602およびARコンテンツ603のデータ形式としては、図5と同様の形式を用いることができ、表計算ソフトなどで明らかである公知の技術を適用することでグラフ形式のコンテンツを表示することができる。この例では、ユーザがドキュメント401およびドキュメント601を同時に閲覧することで、特別な操作をおこなうことなく、時期による業績の推移を把握可能になる。
図4、6で示した例以外にも、図11のドキュメント1101とドキュメント1102とのように、日付の古いドキュメントと新しいドキュメントであることが属性情報によって分かれば、それぞれのドキュメントに対応づいたARコンテンツの差分情報を生成することができる。
また、特徴情報が文書に1対1で関連付いている必要はなく、1つの文書内に拡張情報に対応づいた複数の特徴情報が存在することもある。
上述の動作を、フローチャートに従って説明する。
図7は、本実施形態における撮影部115〜コンテンツ再生部122の処理を示すフローチャートである。まず、ステップS701で、AR端末101の撮影部105を用いて現実空間を撮影する。つづいて、ステップS702では、認識部116により、ステップS701で撮影した撮像結果を用いて、ARコンテンツを識別するための識別情報を認識する。ここでは、識別情報として画像特徴量を用いる構成としたが、専用のマーカを用いる構成としても良い。また、認識部116は、AR端末101側、サーバ109側のどちらにあってもよい。前述のSIFT特徴量、専用のマーカから得られる特徴情報を、ARコンテンツを識別するための識別情報に用いる。
ステップS703は、ステップS702で認識した識別情報に対応付けられたARコンテンツをコンテンツ取得部117で取得する。本ステップでは、図3に示すデータ301を参照して、識別情報からARコンテンツを取得する。ステップS704では、ステップS702で認識した識別情報に対応付けられた属性情報を属性情報取得部118で取得する。本ステップでは、ステップS702と同様に図3に示すデータ301を参照して、識別情報から属性情報を取得する。ここでは、識別情報に対し、属性情報が対応付く構成としたが、ARコンテンツに対して対応付く構成としても良い。この構成によれば、複数の識別情報に対して同一のARコンテンツが対応付いている場合に、管理に必要なデータ量を縮小することができる。たとえば、図3において、3つの画像特徴量に対して、いずれもARコンテンツAが対応付いていたとする。この場合には、識別情報に対し属性情報を対応付けると、同一の属性情報を3つ重複して格納する必要がある。一方、ARコンテンツに対して属性情報を対応付ける構成とし、その対応付けを別表で管理すると、属性情報を重複して格納する必要がなくなる。
ステップS705では、ステップS702において2つ以上の識別情報が認識されたか否かを判定する。識別情報が1つしか認識されなかった場合には、ステップS708へ進みステップS703で取得したARコンテンツをそのまま再生する。一方、識別情報が2つ以上認識された場合には、ステップS706へ進み、ステップS703で取得したARコンテンツを処理する方法をコンテンツ処理方法判別部119で判別する。本ステップの処理の詳細については、別途図8で説明する。ステップS707では、ステップS706で判別した処理をARコンテンツに対してコンテンツ処理部121で施す。最後に、ステップS708で、ステップS707で処理したARコンテンツをコンテンツ再生部122で再生する。
図8は、図7のステップS706の処理の詳細を示すフローチャートである。本フローでは、図3に示すコンテンツ処理ルール302を参照して、属性情報の組み合わせに応じたコンテンツ処理方法を判別する。コンテンツ処理ルール302内のルールに対し、1つ1つ合致するか否かをチェックしていく。チェック対象のルールは、属性情報の分類情報に応じて事前に絞り込んでも良い。
まず、ステップS801では、最初に参照するルールを設定する。ステップS802では、ステップS704で取得した属性情報が、現在設定されているルールに合致するか否かを判定する。ルールの具体例としては、「2つの識別情報に対応づいた属性情報の内、分類情報がいずれも”決算報告”であり、なおかつ属性情報の社名が同一のものである」といったものがある。本ステップでルールに合致すると判定された場合には、ステップS803へ進む。ステップS803では、ルールに従ってARコンテンツの処理方法を設定する。たとえば、「2つのARコンテンツのグラフを合成して、年単位でグラフ化する」という処理を設定することができる。
一方、ステップS802でルールに合致しないと判定された場合には、ステップS804へと進む。ステップS804では、次に参照するべきルールがあるか否かを判定する。参照するべきルールがない場合には、ステップS706にてデフォルトの処理を設定し、本フローを終了する。たとえば、デフォルトの処理としては、「何も処理しない」という処理を設定することができる。一方、参照するべきルールがある場合には、ステップS805へ進み、次に参照するルールを設定し、ステップS802へ戻る。
なお、本実施形態においては、ルール記憶部120が属性の組み合わせに応じたコンテンツ処理方法を記憶する構成としたが、機械学習やデータマイニング手法を用いてルールを動的に生成する構成としても良い。
この場合には、まず、どのような属性情報のARコンテンツに対して、ユーザがどういう操作をおこなったかというデータを収集する。ここで、ユーザの操作とは、コンテンツの合成処理指示や差分取得指示などがある。そのうえで、ある程度の数のデータ集合を対象に、クラスター分析やサポートベクターマシンなどを用いた解析をおこなう。たとえば、属性情報を多変量データとして扱い、似た属性情報をグループ化することができる。属性情報のグループごとに、ユーザの操作の確率を算出し、もっとも確率の高い操作をルールとして抽出することができる。このように機械学習などの手段を用いることで、事前に人手でルールを作成することなく、コンテンツを処理することが可能となる。
また、コンテンツ処理ルール302には、グラフとして合成表示する以外にも例えば、複数のARコンテンツを比較して、最も数値の高いデータを強調処理するルールを入れても良い。強調処理は、太字にする、星などのマークを付ける、色を変えるなどの方法で行う。
本実施形態によって、ドキュメントを複数同時に閲覧した場合、単体で閲覧した場合とは異なるARコンテンツを再生することができる。たとえば、ドキュメント同士の関係性に応じて、2つ以上のARコンテンツの合成表示をおこなうことができる。ドキュメント同士の関係性を、ドキュメントに埋め込まれたARマーカ若しくは画像特徴から得られる属性情報の組み合わせから判断するからである。このように、ユーザは2つ以上のドキュメントを同時に閲覧するだけで、ドキュメント同士の関係性に応じて加工処理されたARコンテンツを閲覧することができる。もちろん、本実施形態は、ドキュメント以外の物体にも適用できる。
例えば、商品一般、ARマーカを付加できるもの、若しくは画像特徴を抽出できるものなら本実施形態を適用できる。
(第2の実施形態)
以下、本発明の第2の実施形態を説明する。なお、第1の実施形態と同一構成部分についてはその説明を省略する。
第1の実施形態では、AR端末101またはサーバ109が2つ以上の特徴情報を認識した場合に、特徴情報あるいはARコンテンツ何れかの属性情報の組み合わせに基づき、ARコンテンツに加工処理を施す構成であった。本実施形態では、属性情報の代わりに、2つ以上の特徴情報の位置関係に応じて、ARコンテンツに加工処理を施す。
図9は、本実施形態におけるデータ処理部分の構成を示した構成図である。AR端末101内は、撮影部115を用いて現実空間を画像あるいは映像として撮影した撮像結果をサーバ109に送信する。その上で、撮像結果に重畳表示するコンテンツをサーバ109から受信し、表示部107に表示する。
サーバ109では、受信した撮像結果に基づいて、AR端末101に拡張現実コンテンツを提供する。まず、撮像結果を認識部116で解析し、ARマーカまたは画像特徴などの特徴情報を認識する。(認識部116はAR端末側にあっても良い。)この特徴情報は、対応づいているARコンテンツを識別するための識別情報になる。
コンテンツ取得部118によって、識別情報に対応付けられたコンテンツを取得する。つぎに、認識部117で認識した識別情報の位置関係を、特徴情報を抽出した位置を用いて、位置関係算出部901で算出する。ここで、サーバ109は、識別情報の位置関係に応じたコンテンツの処理方法を定義するルール記憶部120を保持している。ルール記憶部120に記憶されたルールに従い、コンテンツ処理方法判定部119で処理方法を判定し、コンテンツ処理部121を用いて加工処理をおこなう。ここで処理されたコンテンツを、AR端末101へ送信する。AR端末101は、サーバ109から受信したARコンテンツをコンテンツ再生部122で、表示部107に表示する。
図10は、本装置において扱うコンテンツ処理ルール1001の形式を示した図である。コンテンツ処理ルール1001は、位置関係算出部901で算出した識別情報間の位置関係に応じたARコンテンツの処理内容を定義した定義情報である。本例では、2つの識別情報が横並びであるか重なっているかによって、2つのARコンテンツの差分をとる、あるいは2つのARコンテンツを合成するという処理判別をおこなうルールを定義している。さらに、2つの識別情報の内、一方が傾いた位置関係である場合には、傾いていない識別情報に対応づいたARコンテンツのみを表示するというルールも定義している。その他、識別情報間の距離が近い場合には、ARコンテンツを合成し、識別情報間の距離が遠い場合には、ARコンテンツを合成せず、それぞれ単体のARコンテンツを表示することにしても良い。距離は、絶対値で定義しても良いし、撮影領域の幅の7割以下など相対値で定義しても良い。コンテンツ処理ルール1001は、ルール記憶部120が管理する。
図11は、本実施形態における特徴情報を埋め込んだドキュメントおよびARコンテンツの具体例を示したものである。図11(A)は、AR端末101を用いてドキュメント1101およびドキュメント1102を横に並べて近い距離で閲覧した場合のAR端末101上における表示を示している。ここでは、ドキュメント1101とドキュメント1102は、発注日違いの注文書である。ARコンテンツ1103は、ドキュメント1101とドキュメント1102の発注品の差分情報を表示している。なお、図示していないが、AR端末101を用いてドキュメント1101とドキュメント1102をそれぞれ単体で閲覧した場合には、それぞれの注文内容がARコンテンツとして表示されるものとする。
これに対し、図11(B)は、AR端末101を用いてドキュメント1101およびドキュメント1102を上下に重ねて閲覧した場合のAR端末101上における表示を示している。ARコンテンツ1104は、ドキュメント1101とドキュメント1102の発注品の合計情報を表示している。このように、ユーザが2つのドキュメントの位置関係を変更することで、2つの注文書間の差分および合計を閲覧可能になる。差分情報を生成する場合は、上に重なっているドキュメント1102のARコンテンツから下に重なっているドキュメント1101のARコンテンツのデータを引き算して差分情報を生成することをルール記憶手段121に記憶しておいても良い。
ドキュメントの配置が横並びであるか、重なっているかの算出方法としては、例えばドキュメントを撮像した画像に対して公知の画像処理技術を適用することで得られる、例えば、画像特徴量の欠損有無やエッジ検出結果を利用することができる。画像特徴量が欠損していた場合には、一方のドキュメントが他方のドキュメントで覆われている状態であり、2つのドキュメントが重なっているとみなすことができる。また、エッジ検出では、ドキュメントの境界を得ることができ、ドキュメントのエッジが不連続であれば、2つのドキュメントが重なっているとみなすことができる。
図12(A)(B)は、それぞれドキュメント1101およびドキュメント1102の注文内容に対応づいたARコンテンツのデータ形式の例である。各注文書に対応する、商品コード、品名、単価、個数、金額が数値データとして管理されている。これらのデータに対して、表計算ソフトなどで明らかである公知の技術を適用することで、2つの注文書間の注文差分や注文合計を容易に計算することが可能である。
図13は、本実施形態における特徴情報を埋め込んだドキュメントおよびARコンテンツの別の具体例を示したものである。AR端末101を用いて、図4に示したドキュメント401およびドキュメント402を同時に近い距離で閲覧しているが、ドキュメント401の配置が大きく傾いている場合のAR端末101上における表示を示している。この例では、ARコンテンツ1301として、ドキュメント402を単体で閲覧した場合のARコンテンツと同一のものが再生されている。
このように、一方のドキュメントの配置が大きく傾いている場合には、ユーザにはそのドキュメントを参照する意図がないとみなし、傾いていない方のドキュメントのARコンテンツのみを表示することができる。ドキュメントの配置の傾きの算出方法としては、例えばドキュメントを撮像した画像に対して、公知の画像処理技術を適用することによって得られるエッジ検出結果を利用することができる。エッジ検出では、ドキュメントの境界を得ることができ、エッジが傾いているか否かをドキュメントの傾きの判定に用いることができる。
上述の動作を、フローチャートに従って説明する。
図14は、本実施形態における撮影部115〜コンテンツ再生部122の処理を示すフローチャートである。まず、ステップS1401で、撮影部105を用いて現実空間を撮影する。つづいて、ステップS1402では、認識部117により、ステップS1401で撮影した撮像結果を用いて、ARコンテンツを識別するための識別情報を認識する。また、認識部116は、AR端末101側、サーバ109側のどちらにあってもよい。前述のSIFT特徴量、専用のマーカから得られる特徴情報を、ARコンテンツを識別するための識別情報に用いる。
ステップS1403は、ステップS1402で認識した識別情報に対応付けられたARコンテンツをコンテンツ取得部118で取得する。本ステップでは、図3に示すデータ302を参照して、識別情報からARコンテンツを取得する。ステップS1404では、ステップS1402で認識した識別情報の位置関係を位置関係算出部901で算出する。位置関係としてはたとえば、2つの識別情報の並び方向、距離、重なりの有無、傾きを算出することができる。
ステップS1405では、ステップS1402において2つ以上の識別情報が認識されたか否かを判定する。識別情報が1つしか認識されなかった場合には、ステップS1408へ進みステップS1403で取得したARコンテンツをそのまま再生する。一方、識別情報が2つ以上認識された場合には、ステップS1406へ進み、ステップS1403で取得したARコンテンツを処理する方法をコンテンツ処理方法判別部120で判別する。本ステップの処理の詳細については、別途図8で説明したものと同一である。ステップS1407では、ステップS1406で判別した処理をARコンテンツに対して施す。最後に、ステップS1408で、ステップS1407で処理したARコンテンツを再生する。
本実施形態によって、ドキュメント同士の位置関係に応じたコンテンツを表示可能となる。たとえば、ドキュメントを並べて閲覧する場合と、重ねて閲覧した場合とで、異なるコンテンツを再生することができる。ドキュメント同士の位置関係を、ドキュメントに埋め込まれたARマーカ若しくは画像特徴量の位置関係から判断したからである。このようにドキュメントの配置を変えるという直観的な操作によって、表示するコンテンツを変更することが可能となる。もちろん、本実施形態は、ドキュメント以外の物体にも適用できる。
例えば、商品一般、ARマーカを付加できるもの、若しくは画像特徴を抽出できるものなら本実施形態を適用できる。
(第3の実施形態)
以下、本発明の第3の実施形態を説明する。本実施形態では、第1の実施形態におけるARコンテンツに施す処理のバリエーションについて開示する。本実施形態においては、第1の実施形態と同一構成部分についてはその説明を省略する。
図15は、本装置において扱うコンテンツ処理ルール1501の形式を示した図である。コンテンツ処理ルール1501は、属性情報の組み合わせに応じたARコンテンツの処理内容を定義した定義情報である。本例では、属性情報の組み合わせに応じて、再生対象のコンテンツを切り替える処理をルールとしている。コンテンツ処理ルール1501は、ルール記憶部120が管理する。
図16は、特徴情報を埋め込んだ看板およびARコンテンツの具体例を示したものである。図16(A)は、AR端末101を用いて説明看板1601を単体で閲覧した場合のAR端末101上における表示を示している。ここでは、説明看板1601に対応づいたARコンテンツとして、説明映像であるARコンテンツ1602が表示されている。これに対し、図16(B)は、AR端末101を用いて説明看板1601および子ども用チケット1603を同時に閲覧した場合のAR端末101上における表示を示している。ARコンテンツ1604は、ARコンテンツ1602に対応する子ども用映像である。この例では、ユーザが説明看板1601および子ども用チケット1603を同時に閲覧することで、特別な操作をおこなうことなく、子ども用の映像を閲覧可能になる。子ども用映像(ARコンテンツ1604)は、通常映像(ARコンテンツ1602)とは別のコンテンツとして事前に用意しておいてもよいが、通常映像に対して、漢字かな変換技術を適用して自動生成する構成としてもよい。適用技術は、漢字かな変換技術に限定されず、たとえば翻訳技術を適用することで外国人向け映像を生成することも可能である。このように映像を動的に生成する構成とする場合には、事前に映像のバリエーションを用意しておく必要がなく、管理するデータ量を削減することができる。
本実施形態によって、属性情報の組み合わせに応じて、再生対象のARコンテンツを別コンテンツに切り替えることが可能となる。上記の例以外にも、ドキュメントとIDカードとの組み合わせに応じたコンテンツを再生することも可能であり、セキュリティ保護にも利用することができる。もちろん、本実施形態は、ドキュメント以外の物体にも適用できる。
例えば、商品一般、ARマーカを付加できるもの、若しくは画像特徴を抽出できるものなら本実施形態を適用できる。
(第4の実施形態)
以下、本発明の第4の実施形態を説明する。本実施形態では、第2の実施形態におけるARコンテンツに施す処理のバリエーションについて開示する。本実施形態においては、第2の実施形態と同一構成部分についてはその説明を省略する。
図17は、本装置において扱うコンテンツ処理ルール1701を示した図である。コンテンツ処理ルール1701は、位置関係算出部901で算出した識別情報間の位置関係に応じたARコンテンツの処理内容を定義した定義情報である。本例では、識別情報の上下の位置関係に応じて、ARコンテンツを強調表示あるいは縮小表示するというルールを定義している。コンテンツ処理ルール1701は、ルール記憶部120が管理する。
図18は、図4に示した識別情報を埋め込んだドキュメントに対して、コンテンツ処理ルール1701を適用した時のARコンテンツの具体例を示したものである。ドキュメント401の上に、ドキュメント402を重ねて閲覧している状態である。ARコンテンツ1801は、ARコンテンツ403を縮小表示しており、ARコンテンツ1802は、ARコンテンツ404を強調表示している。ドキュメントの配置の上下関係の判定方法としては、例えばドキュメントを撮像した画像の画像特徴量の欠損有無やエッジ検出結果を利用することができる。ARコンテンツの強調表示・縮小表示は、公知の画像処理技術による画像変換処理を用いることができる。
本実施形態によって、識別情報の位置関係に応じて、ARコンテンツの拡大表示あるいは縮小表示をおこなうことができる。たとえば、複数のドキュメントを閲覧している場合に、一番上に重ねているドキュメントのARコンテンツを、大きなサイズで閲覧することができる。もちろん、本実施形態は、ドキュメント以外の物体にも適用できる。
例えば、商品一般、ARマーカを付加できるもの、若しくは画像特徴を抽出できるものなら本実施形態を適用できる。
以上、実施形態を詳述したが、本発明は上述の実施形態に限定されるのではなく、本発明の趣旨を逸脱しない限りにおいて適宜変更が可能である。
本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
101 AR端末
102 CPU
103 ROM
104 RAM
105 撮像部
106 入力部
107 表示部
108 通信部
109 サーバ
110 CPU
111 ROM
112 RAM
113 記憶装置
114 通信部

Claims (26)

  1. 画像を撮像する端末と接続可能な画像処理装置であって、
    撮像された画像から抽出された特徴情報から拡張情報と属性情報とを取得する取得手段と、
    前記特徴情報が複数抽出された場合、前記属性情報に基づいて、前記取得手段で取得された複数の拡張情報を用いて新たな拡張情報を少なくとも1つ生成する処理手段と、
    前記処理手段で生成された新たな拡張情報を前記端末に送信する送信手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記特徴情報それぞれは、文書それぞれに関連付いており、前記取得手段では、前記特徴情報から前記文書の属性情報が取得されることを特徴とする請求項1記載の画像処理装置。
  3. 前記属性情報は前記拡張情報に対応づいており、前記取得手段では、前記拡張情報に対応する前記属性情報を取得することを特徴とする請求項1または2記載の画像処理装置。
  4. 前記属性情報の組み合わせに応じた前記新たな拡張情報の生成処理の定義情報を記憶する記憶手段を更に備え、前記処理手段では、前記定義情報を参照して処理をすることを特徴とする請求項1乃至3何れか1項に記載の画像処理装置。
  5. 前記記憶手段には、前記端末で前記拡張情報に対する加工処理が指示された場合、該加工処理の指示を学習して作成した前記定義情報を記憶することを特徴とする請求項4記載の画像処理装置。
  6. 前記記憶手段では、前記定義情報は構造化されたデータを用いて記憶することを特徴とする請求項4または5記載の画像処理装置。
  7. 前記処理手段では、前記拡張情報の分類を示す前記属性情報に応じて絞り込んだ該分類の定義情報に基づいて、前記複数の拡張情報を用いて新たな拡張情報を少なくとも1つ生成することを特徴とする請求項4乃至6何れか1項に記載の画像処理装置。
  8. 前記処理手段は、前記取得した複数の拡張情報を合成処理することを特徴とする請求項1乃至7何れか1項に記載の画像処理装置。
  9. 前記処理手段は、前記取得した複数の拡張情報の差分情報を生成する処理をすることを特徴とする請求項1乃至7何れか1項に記載の画像処理装置。
  10. 前記処理手段は、前記取得した拡張情報の少なくとも1つを強調処理することを特徴とする請求項1乃至7何れか1項に記載の画像処理装置。
  11. 前記特徴情報は、マーカであることを特徴とする請求項1記載の画像処理装置。
  12. 前記特徴情報は、QRコード(登録商標)であることを特徴とする請求項1記載の画像処理装置。
  13. 前記特徴情報は、画像特徴量であることを特徴とする請求項1記載の画像処理装置。
  14. 前記画像特徴量は、SIFT特徴量であることを特徴とする請求項13記載の画像処理装置。
  15. 画像を撮像する端末と接続可能な画像処理装置であって、
    撮像された画像から抽出された特徴情報から拡張情報を取得する取得手段と、
    前記特徴情報が複数抽出された場合、抽出されたそれぞれの位置の関係に基づいて、前記取得手段で取得される複数の拡張情報を用いて新たな拡張情報を少なくとも1つ生成する処理手段と、
    前記処理手段で生成された新たな拡張情報を前記端末に送信する送信手段と、
    を備えることを特徴とする画像処理装置。
  16. 前記位置の関係に応じた前記新たな拡張情報の生成処理の定義情報を記憶する記憶手段を更に備え、前記処理手段では、前記定義情報を参照して処理をすることを特徴とする請求項15記載の画像処理装置。
  17. 前記記憶手段では、前記定義情報は構造化されたデータを用いて記憶することを特徴とする請求項16記載の画像処理装置。
  18. 前記処理手段では、前記特徴情報が抽出されたそれぞれの位置の距離に応じて、前記取得した拡張情報を加工することを特徴とする請求項15記載の画像処理装置。
  19. 前記特徴情報の傾きを判断する判断手段を更に備え、
    前記処理手段では、前記判断手段で傾きがあると判断された特徴情報から取得した拡張情報は用いないことを特徴とする請求項15記載の画像処理装置。
  20. 画像を撮像する端末と接続可能な画像処理装置の画像処理方法であって、
    撮像された画像から抽出された特徴情報から拡張情報と属性情報とを取得する取得工程と、
    前記特徴情報が複数抽出された場合、前記属性情報に基づいて、前記取得手段で取得された複数の拡張情報を用いて新たな拡張情報を少なくとも1つ生成する処理工程と、
    前記処理工程で生成された新たな拡張情報を前記端末に送信する送信工程と、
    を備えることを特徴とする画像処理方法。
  21. 画像を撮像する端末と接続可能な画像処理装置の画像処理方法であって、
    撮像された画像から抽出された特徴情報から拡張情報を取得する取得工程と、
    前記特徴情報が複数抽出された場合、抽出されたそれぞれの位置の関係に基づいて、前記取得手段で取得される複数の拡張情報を用いて新たな拡張情報を少なくとも1つ生成する処理工程と、
    前記処理工程で生成された新たな拡張情報を前記端末に送信する送信工程と、
    を備えることを特徴とする画像処理方法。
  22. コンピュータを、
    端末で撮像された画像から抽出された特徴情報から拡張情報と属性情報とを取得する取得手段と、
    前記特徴情報が複数抽出された場合、前記属性情報に基づいて、前記取得手段で取得された複数の拡張情報を用いて新たな拡張情報を少なくとも1つ生成する処理手段と、
    前記処理手段で生成された新たな拡張情報を前記端末に送信する送信手段と、
    として機能させるためのプログラム。
  23. コンピュータを
    端末で撮像された画像から抽出された特徴情報から拡張情報を取得する取得手段と、
    前記特徴情報が複数抽出された場合、抽出されたそれぞれの位置の関係に基づいて、前記取得手段で取得される複数の拡張情報を用いて新たな拡張情報を少なくとも1つ生成する処理手段と、
    前記処理手段で生成された新たな拡張情報を前記端末に送信する送信手段と、
    として機能させるためのプログラム。
  24. 画像を撮像する端末と前記端末が接続可能な画像処理装置とから構成される画像処理システムであって、
    前記画像処理装置は、
    撮像された画像から抽出された特徴情報から拡張情報と属性情報とを取得する取得手段と、
    前記特徴情報が複数抽出された場合、前記属性情報に基づいて、前記取得手段で取得された複数の拡張情報を用いて新たな拡張情報を少なくとも1つ生成する処理手段と、
    前記処理手段で生成された新たな拡張情報を前記端末に送信する送信手段と、
    を備え、
    前記端末は、
    画像を撮像する撮像手段と、
    前記送信された拡張情報を表示する表示手段と、
    を備えることを特徴とする画像処理システム。
  25. 画像を撮像する端末と前記端末が接続可能な画像処理装置とから構成される画像処理システムであって、
    前記画像処理装置は、
    撮像された画像から抽出された特徴情報から拡張情報を取得する取得手段と、
    前記特徴情報が複数抽出された場合、抽出されたそれぞれの位置の関係に基づいて、前記取得手段で取得される複数の拡張情報を用いて新たな拡張情報を少なくとも1つ生成する処理手段と、
    前記処理手段で生成された新たな拡張情報を前記端末に送信する送信手段と、
    を備え、
    前記端末は、
    画像を撮像する撮像手段と、
    前記送信された拡張情報を表示する表示手段と、
    を備えることを特徴とする画像処理システム。
  26. 前記撮像手段では、文書の画像を撮像することを特徴とする請求項24または25記載の画像処理システム。
JP2012258557A 2012-11-27 2012-11-27 画像処理装置、画像処理方法、画像処理システム及びプログラム Active JP6025522B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012258557A JP6025522B2 (ja) 2012-11-27 2012-11-27 画像処理装置、画像処理方法、画像処理システム及びプログラム
US14/090,957 US9208379B2 (en) 2012-11-27 2013-11-26 Image processing apparatus, image processing method, image processing system, and storage medium storing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012258557A JP6025522B2 (ja) 2012-11-27 2012-11-27 画像処理装置、画像処理方法、画像処理システム及びプログラム

Publications (3)

Publication Number Publication Date
JP2014106692A true JP2014106692A (ja) 2014-06-09
JP2014106692A5 JP2014106692A5 (ja) 2015-11-12
JP6025522B2 JP6025522B2 (ja) 2016-11-16

Family

ID=50773342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012258557A Active JP6025522B2 (ja) 2012-11-27 2012-11-27 画像処理装置、画像処理方法、画像処理システム及びプログラム

Country Status (2)

Country Link
US (1) US9208379B2 (ja)
JP (1) JP6025522B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016062168A (ja) * 2014-09-16 2016-04-25 コニカミノルタ株式会社 Ar装置、画像共有システム、画像共有方法、およびコンピュータプログラム
JP2016076021A (ja) * 2014-10-03 2016-05-12 富士通株式会社 表示制御プログラム、表示制御方法及び情報処理装置
JP2016095620A (ja) * 2014-11-13 2016-05-26 キヤノン株式会社 表示装置、サーバ装置、表示システム及びその制御方法、並びに制御プログラム、記憶媒体
JP2016152474A (ja) * 2015-02-17 2016-08-22 コニカミノルタ株式会社 画像処理システム、画像処理装置、および画像形成装置
JP2016206973A (ja) * 2015-04-23 2016-12-08 大日本印刷株式会社 多言語表示装置、多言語表示システム、多言語表示方法及び多言語表示プログラム
JP2018005477A (ja) * 2016-06-30 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
JP2020144944A (ja) * 2016-06-03 2020-09-10 マジック リープ, インコーポレイテッドMagic Leap,Inc. 拡張現実識別検証

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10510054B1 (en) 2013-12-30 2019-12-17 Wells Fargo Bank, N.A. Augmented reality enhancements for financial activities
US10078867B1 (en) * 2014-01-10 2018-09-18 Wells Fargo Bank, N.A. Augmented reality virtual banker
US9681016B2 (en) 2014-02-26 2017-06-13 Xerox Corporation Methods and systems for capturing, sharing, and printing annotations
US9934212B2 (en) * 2014-02-26 2018-04-03 Xerox Corporation Methods and systems for capturing, sharing, and printing annotations
US10445708B2 (en) 2014-10-03 2019-10-15 Ecoatm, Llc System for electrically testing mobile devices at a consumer-operated kiosk, and associated devices and methods
US20160112479A1 (en) * 2014-10-16 2016-04-21 Wipro Limited System and method for distributed augmented reality
KR102185700B1 (ko) * 2014-11-28 2020-12-02 삼성전자주식회사 디스플레이 장치 및 이의 정보 제공 방법
AU2019404076A1 (en) 2018-12-19 2021-07-15 Ecoatm, Llc Systems and methods for vending and/or purchasing mobile phones and other electronic devices
US11922467B2 (en) * 2020-08-17 2024-03-05 ecoATM, Inc. Evaluating an electronic device using optical character recognition

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007102462A (ja) * 2005-10-04 2007-04-19 Nippon Telegr & Teleph Corp <Ntt> 画像合成方法、システム、端末、および画像合成プログラム
JP2010026818A (ja) * 2008-07-18 2010-02-04 Geisha Tokyo Entertainment Inc 画像処理プログラム、画像処理装置及び画像処理方法
JP2012141779A (ja) * 2010-12-28 2012-07-26 Ns Solutions Corp 拡張現実提供装置、拡張現実提供システム、拡張現実提供方法及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010045271A1 (en) * 2008-10-14 2010-04-22 Joshua Victor Aller Target and method of detecting, identifying, and determining 3-d pose of the target
US8290205B2 (en) * 2009-06-25 2012-10-16 Eastman Kodak Company Dating images from scanned watermarks
US9008438B2 (en) * 2011-04-25 2015-04-14 Panasonic Intellectual Property Corporation Of America Image processing device that associates photographed images that contain a specified object with the specified object
KR101343609B1 (ko) * 2011-08-24 2014-02-07 주식회사 팬택 증강 현실 데이터를 이용할 수 있는 어플리케이션 자동 추천 장치 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007102462A (ja) * 2005-10-04 2007-04-19 Nippon Telegr & Teleph Corp <Ntt> 画像合成方法、システム、端末、および画像合成プログラム
JP2010026818A (ja) * 2008-07-18 2010-02-04 Geisha Tokyo Entertainment Inc 画像処理プログラム、画像処理装置及び画像処理方法
JP2012141779A (ja) * 2010-12-28 2012-07-26 Ns Solutions Corp 拡張現実提供装置、拡張現実提供システム、拡張現実提供方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016027510; 中居 友弘: '特徴点の局所的配置に基づくリアルタイム文書画像検索とその拡張現実への応用' 情報処理学会研究報告 Vol.2006 No.93 2006-CVIM-155, 20060909, P.41-48, 社団法人情報処理学会 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016062168A (ja) * 2014-09-16 2016-04-25 コニカミノルタ株式会社 Ar装置、画像共有システム、画像共有方法、およびコンピュータプログラム
JP2016076021A (ja) * 2014-10-03 2016-05-12 富士通株式会社 表示制御プログラム、表示制御方法及び情報処理装置
JP2016095620A (ja) * 2014-11-13 2016-05-26 キヤノン株式会社 表示装置、サーバ装置、表示システム及びその制御方法、並びに制御プログラム、記憶媒体
JP2016152474A (ja) * 2015-02-17 2016-08-22 コニカミノルタ株式会社 画像処理システム、画像処理装置、および画像形成装置
JP2016206973A (ja) * 2015-04-23 2016-12-08 大日本印刷株式会社 多言語表示装置、多言語表示システム、多言語表示方法及び多言語表示プログラム
JP2020144944A (ja) * 2016-06-03 2020-09-10 マジック リープ, インコーポレイテッドMagic Leap,Inc. 拡張現実識別検証
US11263438B2 (en) 2016-06-03 2022-03-01 Magic Leap, Inc. Augmented reality identity verification
JP7041194B2 (ja) 2016-06-03 2022-03-23 マジック リープ, インコーポレイテッド 拡張現実識別検証
JP2018005477A (ja) * 2016-06-30 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置

Also Published As

Publication number Publication date
US9208379B2 (en) 2015-12-08
JP6025522B2 (ja) 2016-11-16
US20140147004A1 (en) 2014-05-29

Similar Documents

Publication Publication Date Title
JP6025522B2 (ja) 画像処理装置、画像処理方法、画像処理システム及びプログラム
US10339383B2 (en) Method and system for providing augmented reality contents by using user editing image
US10013643B2 (en) Performing optical character recognition using spatial information of regions within a structured document
US10210659B2 (en) Augmented reality system, method, and apparatus for displaying an item image in a contextual environment
US9665960B1 (en) Image-based item location identification
JP6569532B2 (ja) 管理システム、リスト作成装置、リスト作成方法、管理方法及び管理用プログラム
CN107979709B (zh) 图像处理装置、系统、控制方法和计算机可读介质
US10339373B1 (en) Optical character recognition utilizing hashed templates
CN112698775B (zh) 图像显示方法、装置和电子设备
CN108134906A (zh) 图像处理方法及其系统
US20230096044A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP7318289B2 (ja) 情報処理装置およびプログラム
JP6168872B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5846378B2 (ja) 情報管理方法及び情報管理システム
US10915753B2 (en) Operation assistance apparatus, operation assistance method, and computer readable recording medium
CN112862558A (zh) 产品详情页面的生成方法和系统、数据处理方法
CN112183149B (zh) 图形码处理方法及装置
JP7041868B2 (ja) 表示装置及び表示方法並びに表示システム
JP7231529B2 (ja) 情報端末装置、サーバ及びプログラム
JP2011197844A (ja) 差分検知システム
Yi et al. Bullet-time book: Augmentation of visual information in figures by bullet-time video display
US20150003744A1 (en) Information processing apparatus, information processing method, and storage medium
JP2016224884A (ja) 情報処理装置、及びプログラム
US20150095192A1 (en) Utilizing an image for facilitating an ebook transaction
JP5723428B2 (ja) コンテンツ表示システム、ウェブページ生成装置及び表示端末

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161011

R151 Written notification of patent or utility model registration

Ref document number: 6025522

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151