JPWO2017179543A1 - 情報処理装置、情報処理方法及びプログラム記録媒体 - Google Patents

情報処理装置、情報処理方法及びプログラム記録媒体 Download PDF

Info

Publication number
JPWO2017179543A1
JPWO2017179543A1 JP2018512010A JP2018512010A JPWO2017179543A1 JP WO2017179543 A1 JPWO2017179543 A1 JP WO2017179543A1 JP 2018512010 A JP2018512010 A JP 2018512010A JP 2018512010 A JP2018512010 A JP 2018512010A JP WO2017179543 A1 JPWO2017179543 A1 JP WO2017179543A1
Authority
JP
Japan
Prior art keywords
information
unit
processing apparatus
image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018512010A
Other languages
English (en)
Other versions
JP6915611B2 (ja
Inventor
蕊寒 包
蕊寒 包
才田 好則
好則 才田
真 則枝
真 則枝
貴美 佐藤
貴美 佐藤
岩元 浩太
浩太 岩元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2017179543A1 publication Critical patent/JPWO2017179543A1/ja
Application granted granted Critical
Publication of JP6915611B2 publication Critical patent/JP6915611B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/02Recognising information on displays, dials, clocks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

物体が認識されない状況においても、物体に対応付けられた情報を当該物体の位置に応じた表示態様で表示できるように記録する。情報処理装置100は、画像を取得する取得部110と、取得部110により取得された画像から物体を認識する認識部120と、認識部120により前記物体が認識された場合に、当該物体に対応する第1の情報を、当該物体の位置に関する第2の情報とともに記録する記録部130とを含む。

Description

本開示は、情報処理装置等に関する。
物体を認識し、認識した物体に応じた情報を表示する技術が知られている。例えば、特許文献1は、マーカを認識すると、マーカに対応した画像を表示する技術を開示している。また、特許文献2は、1つのマーカに複数のAR(Augmented Reality)コンテンツを対応付ける技術を開示している。
特開2015−194954号公報 特開2015−022737号公報
この種の情報の表示に際して、マーカが必ず認識できるとは限らない。例えば、特許文献1、2に開示された技術において、マーカが他の遮蔽物によって隠れてしまったり、あるいはマーカが剥離したりして本来の位置に存在しなくなった場合には、所期の情報を表示することができない。
本開示の例示的な目的は、物体が認識されない状況においても、物体に対応付けられた情報を当該物体の位置に応じた表示態様で表示できるように記録することにある。
一の態様において、画像を取得する取得手段と、前記取得手段により取得された画像から物体を認識する認識手段と、前記認識手段により物体が認識された場合に、当該物体に対応する第1の情報を、当該物体の位置に関する第2の情報とともに記録する記録手段とを含む情報処理装置が提供される。
別の態様において、画像を取得し、前記取得された画像から物体を認識し、前記物体が認識された場合に、当該物体に対応する第1の情報を、当該物体の位置に関する第2の情報とともに記録する情報処理方法が提供される。
さらに別の態様において、コンピュータに、画像を取得する処理と、前記取得された画像から物体を認識する処理と、前記物体が認識された場合に、当該物体に対応する第1の情報を、当該物体の位置に関する第2の情報とともに記録する処理とを実行させるためのプログラムを記録したコンピュータ読取可能なプログラム記録媒体が提供される。
本開示によれば、物体が認識されない状況においても、物体に対応付けられた情報を当該物体の位置に応じた表示態様で表示できるように記録することが可能である。
図1は、情報処理装置の構成の一例を示すブロック図である。 図2は、情報処理装置が実行する処理の一例を示すフローチャートである。 図3は、情報処理装置の構成の別の例を示すブロック図である。 図4は、制御盤の一例を示す図である。 図5は、付箋紙の貼付の一例を示す図である。 図6は、登録処理の一例を示すフローチャートである。 図7は、座標情報の一例を示す図である。 図8は、表示処理の一例を示すフローチャートである。 図9は、コンテンツの表示の一例を示す図である。 図10は、情報処理システムの構成の一例を示すブロック図である。 図11は、付箋紙の一例を示す図である。 図12は、付箋紙の貼付の一例を示す図である。 図13は、登録処理の別の例を示すフローチャートである。 図14は、座標の計算方法の一例を示す図である。 図15は、座標情報の一例を示す図である。 図16は、コンテンツの表示の別の例を示す図である。 図17は、情報処理装置の構成のさらに別の例を示すブロック図である。 図18は、コンテンツに所定の処理を割り当てる場合の付箋紙を例示する図である。 図19は、コンピュータ装置のハードウェア構成の一例を示すブロック図である。
[第1実施形態]
図1は、一実施形態に係る情報処理装置100の構成を示すブロック図である。画像処理装置100は、取得部110と、認識部120と、記録部130とを含んで構成される。情報処理装置100は、他の構成要素を必要に応じて含んでもよい。情報処理装置100の構成の一部または全部は、ソフトウェアによって実装されてもよい。
取得部110は、画像を取得する。取得部110は、例えば、他の装置(デジタルカメラ、記憶装置など)から画像データの入力を受け付けることによって画像を取得する。取得部110により取得される画像は、特定のサイズや色深度に必ずしも限定されない。取得部110により取得される画像は、モノクロ画像とカラー画像のいずれであってもよい。取得部110は、画像を複数取得することが可能である。
認識部120は、画像から所定の物体を認識する。認識部120は、取得部110により取得された画像から、周知の物体認識技術を用いて物体を認識することができる。ここでいう物体認識技術は、一般物体認識と特定物体認識のいずれであってもよい。例えば、認識部120は、所定の特徴量に基づいて画像特徴を抽出することで物体を認識してもよい。
いくつかの態様において、認識部120は、特定の物品や標識を認識するように構成される。例えば、認識部120は、2次元コード(2次元バーコードともいう。)や、ARシステムにおいて用いられるARマーカを認識することが可能である。認識部120は、画像において色又は形状が一定の特徴を有する部分を所定の物体として認識してもよい。
記録部130は、画像から認識された物体に関する情報を記録する。記録部130は、情報処理装置100の内部又は外部の所定の記憶媒体に情報を記録するように構成される。記録部130は、認識部120により物体が認識された場合に、当該認識された物体に関する情報を記録する。記録部130は、認識部120により複数の物体が認識された場合に、当該複数の物体に関する情報を関連付けて記録する。
記録部130は、認識部120により物体が認識された場合に、当該物体に対応する情報(以下「第1の情報」ともいう。)を、当該物体の位置に関する情報(以下「第2の情報」ともいう。)とともに記録する。第1の情報は、例えば、認識部120により認識された物体を識別する情報や、当該物体から抽出される情報である。例えば、認識部120により認識された物体の表面に文字又は画像が含まれている場合、第1の情報は、その文字又は画像に基づいて記録される。第1の情報は、認識部120により認識された物体そのものを表す画像データであってもよい。第2の情報は、例えば、認識部120により認識された物体の位置(すなわち座標)を所定の座標系を用いて記述した情報である。第1の情報及び第2の情報は、物体に関する情報の一例に相当する。
また、記録部130は、認識部120により複数の物体が認識された場合に、当該複数の物体の位置関係に応じた情報を第2の情報として記録してもよい。この場合の第2の情報は、例えば、認識部120により認識された複数の物体の位置を共通の座標系を用いて記述した情報である。第2の情報は、これら複数の物体の間の距離を示すデータや、複数の物体の一方を基準とした場合の他方の方向を示すデータを含んでもよい。
図2は、情報処理装置100が実行する処理を示すフローチャートである。ステップS111において、取得部110は、画像を取得する。ステップS112において、認識部120は、取得部110により取得された画像から物体を認識する。ここでいう物体は、画像の全体ではなく一部に含まれるものとする。
なお、ステップS112において、認識部120は、画像から物体を常に認識するとは限らない。例えば、認識部120は、認識可能な物体が画像に含まれていない場合には、物体の認識に失敗する。したがって、ステップS112の処理は、物体の認識を試みる処理であるともいえる。ステップS112において物体が認識できなかった場合、情報処理装置100は、ステップS113以降の処理を実行せずに処理を終える。
ステップS112において物体が認識された場合、記録部130は、ステップS113において当該物体に関する情報を記録する。特に、ステップS112において複数の物体が認識された場合、記録部130は、当該複数の物体について、第1の情報と第2の情報とを記録する。
以上に説明されたように、本実施形態の情報処理装置100は、物体が認識された場合に第1の情報を第2の情報とともに記録する構成を有する。この構成は、認識された物体の位置に関する情報、すなわち第2の情報を第1の情報とともに読み出すことを可能にする。したがって、情報処理装置100によれば、物体が認識されない状況においても、物体に対応付けられた第1の情報を当該物体の位置に応じた表示態様で表示できるように記録することが可能である。
また、本実施形態の情報処理装置100は、複数の物体が認識された場合に第1の情報を第2の情報とともに記録する構成を有する。この構成は、認識された複数の物体の位置関係に応じた第2の情報を第1の情報とともに読み出すことを可能にする。したがって、情報処理装置100によれば、複数の物体の少なくとも一部が認識されない状況においても、物体に対応付けられた第1の情報を当該複数の物体の位置関係に応じた表示態様で表示できるように記録することが可能である。
[第2実施形態]
図3は、別の実施形態に係る情報処理装置200の構成を示すブロック図である。情報処理装置200は、制御部210と、記憶部220と、撮影部230と、画像処理部240と、表示部250とを含んで構成される。情報処理装置200は、他の構成要素(例えば、入力装置)を含んでもよい。
情報処理装置200は、例えば、スマートフォンやタブレット端末のような携帯可能な電子機器である。あるいは、情報処理装置200は、HMD(Head Mounted Display)のようなウェアラブルデバイスであってもよい。ただし、情報処理装置200の具体的な形状やサイズは、特に限定されない。
なお、本実施形態以降において、第1実施形態に記載された用語と同一の用語は、特に定義又は説明がある場合を除き、第1実施形態と同様の意味で用いられる。
制御部210は、情報処理装置200の動作を制御する。制御部210は、CPU(Central Processing Unit)等の1又は複数の演算処理装置とメモリとを有し、プログラムを実行することによって情報処理装置200の動作を制御する。制御部210は、第1実施形態の記録部130の一例に相当する。
記憶部220は、データを記憶する。記憶部220は、ハードディスク、フラッシュメモリ等の記憶媒体を含んで構成される。記憶部220は、メモリカード等の着脱可能な記憶媒体とデータを授受する構成を含み得る。記憶部220は、プログラムや画像データをはじめとする情報処理装置200の動作に必要なデータを記憶することができる。制御部210は、データを記憶部220に書き込み、記憶部220に記憶されたデータを読み出すことができる。
撮影部230は、画像を撮影する。撮影部230は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の光検出器を含んで構成される。撮影部230は、撮影された画像を表す画像データを生成する。以下においては、撮影により生成された画像データが表す画像のことを「撮影画像」ともいう。撮影部230は、第1実施形態の取得部110の一例に相当する。
画像処理部240は、所定の画像処理を実行する。画像処理部240は、例えば、1又は複数の画像処理プロセッサを含んで構成される。画像処理部240は、独立した構成要素としてではなく、制御部210の一部として構成されてもよい。
画像処理部240は、より詳細には、物体認識部241と抽出部242とを含んで構成される。物体認識部241は、画像から物体を認識する。物体認識部241は、第1実施形態の認識部120の一例に相当する。抽出部242は、物体認識部241により認識された物体から情報を抽出する。以下においては、抽出部242により抽出された情報のことを「付加情報」ともいう。付加情報は、例えば、物体認識部241により認識された物体の表面から光学的に読み取ることができる情報を含む。
表示部250は、情報を表示する。表示部250は、液晶ディスプレイ、プロジェクタ等の表示装置を含んで構成される。表示部250は、撮影部230により撮影された撮影画像を表示することが可能である。また、表示部250は、記憶部220に記憶されたデータに応じた画像を表示することも可能である。
情報処理装置200の構成は、以上のとおりである。この構成のもと、情報処理装置200は、撮影画像から物体を認識し、認識された物体に応じた情報を記録することが可能である。また、情報処理装置200は、記録された情報を表示することが可能である。
本実施形態において、情報処理装置200は、制御盤を認識するように構成される。ここでいう制御盤は、計器、表示器又は操作子(スイッチ、ツマミなど)を含む物体である。制御盤は、製品の製造、施設の保守又はメンテナンスなどにおいて用いられる。制御盤に類似する物体としては、表示盤、操作盤、警報盤などがある。
図4は、制御盤の一例を示す図である。この例において、制御盤10は、計器11、12、13と、ダイヤル14と、スイッチ15とを有する。計器11、12、13は、それぞれ、計測される所定の数量(重量、圧力、温度、速度など)を表示する。ダイヤル14及びスイッチ15は、入力装置の一例である。ダイヤル14は、数値を入力するための入力するための入力装置である。スイッチ15は、オン・オフを切り替えるための入力装置である。
制御盤10は、点検作業において、作業者に目視で確認される。しかし、この点検作業における作業者は、常に同じ人物であるとは限らない。本実施形態において、作業者は、点検作業における作業手順や確認事項を確認するために、情報処理装置200を用いる。
本実施形態において、情報処理装置200は、作業者にとって必要な情報を表示する。作業者は、情報処理装置200による表示を可能にするために、情報を登録する作業を事前に実行する。本実施形態において、作業者は、所定の付箋紙を制御盤10に貼付することによって情報の登録作業を実行することができる。
図5は、本実施形態における付箋紙の貼付の一例を示す図である。この例において、制御盤10には付箋紙21、22が貼付されている。付箋紙21には、ダイヤル14を最初に確認すべき旨の手書き文字が記入されている。付箋紙22には、ダイヤル14の次に計器12を確認すべき旨の手書き文字が記入されている。
本実施形態において、付箋紙21、22は、色及び形状の少なくともいずれかがあらかじめ決められているなど、他の物体と識別可能な特徴を有している。例えば、作業者は、特定の色であり、かつ特定の形状である付箋紙を登録作業に用いる。
作業者は、付箋紙をこのように貼付したら、情報処理装置200を用いて制御盤10を撮影する。本実施形態において、作業者は、このとき制御盤10の全体を正面から撮影する。情報処理装置200は、後述される登録処理によって撮影画像から制御盤10及び付箋紙21、22を認識する。なお、作業者は、情報処理装置200による一連の処理が終了したら、付箋紙21、22を剥がしてよい。つまり、付箋紙21、22は、永続的に貼付されている必要がない。
図6は、情報処理装置200が実行する登録処理を示すフローチャートである。ステップS211において、撮影部230は、画像を撮影する。ステップS212において、撮影部230は、撮影画像を表す画像データを生成する。撮影部230は、所定の時間間隔で撮影を繰り返し、画像データを複数生成してもよい。
ステップS213において、物体認識部241は、ステップS212において生成された画像データに基づいて物体を認識する。物体認識部241は、所定の条件を満たす2種類の物体を認識する。以下においては、これらの物体をそれぞれ「第1の物体」と「第2の物体」という。
本実施形態において、第1の物体及び第2の物体は、その外観(形状、色など)に一定の傾向(すなわち特徴)を有するものとする。第1の物体は、本実施形態においては制御盤10である。第2の物体は、本実施形態においては付箋紙21、22である。いくつかの態様において、第1の物体及び第2の物体は、その画像(又は画像特徴)があらかじめデータベース等に記録されている。物体認識部241は、このデータベースを参照することによって第1の物体及び第2の物体を認識することができる。
ステップS214において、物体認識部241は、第1の物体が認識されたか判断する。また、ステップS215において、物体認識部241は、第2の物体が認識されたか判断する。なお、ステップS214、S215の処理順序は、逆であってもよい。
第1の物体及び第2の物体が認識された場合(S214:YESかつS215:YES)、抽出部242は、ステップS216において、第2の物体から付加情報を抽出する。例えば、本実施形態の付加情報は、付箋紙21、22に記入された手書き文字を表す画像データである。なお、物体認識部241は、OCR(Optical Character Recognition)技術によって手書き文字をテキストデータ(すなわち文字コード)に変換してもよい。この場合、付加情報は、テキストデータを含んでもよい。
ステップS217において、制御部210は、第1の情報及び第2の情報を記憶部220に記録する。本実施形態の第1の情報は、ステップS216において抽出された付加情報である。また、本実施形態の第2の情報は、以下のように算出される座標情報である。
図7は、座標情報の一例を示す図である。制御部210は、撮影画像の適当な位置(図7では制御盤10の左下端)を原点とする直交座標系を定義する。制御部210は、制御盤10の座標情報として、座標31、32、33、34を記録する。また、制御部210は、付箋紙21、22の座標情報として、付箋紙21、22の所定の位置(図7では左下端)を示す座標35、36を記録する。
制御部210は、これらの座標情報及び付加情報を第1の物体、すなわち制御盤10に関連付けて記録する。例えば、制御部210は、制御盤10に所定の識別情報を割り当て、座標情報及び付加情報をこの識別情報に関連付けて記憶部220に記録する。
なお、第1の物体及び第2の物体のいずれかが認識されない場合(S214:NO又はS215:NO)、制御部210は、ステップS216、S217の処理を実行せずに、ステップS218において所定のエラー処理を実行する。エラー処理は、例えば、物体の認識に失敗したことをユーザに通知し、再度の撮影を促す処理である。
作業者が登録作業を実行することで、情報処理装置200は登録処理を実行する。その結果、記憶部220には、制御盤10に関連付けられた座標情報及び付加情報が記録される。座標情報及び付加情報が記録された状態で、作業者は、情報処理装置200を用いて点検作業を実行する。点検作業に際し、作業者は、登録作業の場合と同様に制御盤10を撮影する。このとき、情報処理装置200は、以下の表示処理を実行する。
図8は、情報処理装置200が実行する表示処理を示すフローチャートである。ステップS221において、撮影部230は、画像を撮影する。ステップS222において、撮影部230は、撮影画像を表す画像データを生成する。ステップS221、S222の処理は、登録処理におけるステップS211、S212の処理と同様の処理であるが、登録処理が既に実行された後に実行されている点において異なる。
ステップS223において、物体認識部241は、ステップS222において生成された画像データに基づいて物体を認識する。ステップS223の処理も、登録処理におけるステップS213の処理と同様の処理である。ただし、ステップS223においては、物体認識部241は、第1の物体を認識すれば足り、第2の物体を認識する必要がない。
ステップS224において、物体認識部241は、第1の物体が認識されたか判断する。具体的には、物体認識部241は、このとき、登録処理のステップS217において第1の情報及び第2の情報が記録された物体と同一とみなせる物体が認識されたか判断する。第1の物体が認識されない場合(S224:NO)、制御部210は、画像を再度撮影し、ステップS221以降の処理を再度実行する。
なお、ステップS224において認識される第1の物体は、ステップS214において認識された第1の物体と同一の物体である必要はない。すなわち、ステップS224において認識される第1の物体は、ステップS214において認識された第1の物体と同一の物体であると物体認識部241に認識され得る物体であれば足りる。例えば、ステップS224において認識される制御盤は、付箋紙21、22が貼付された制御盤10とは別の場所に設置され、外観が制御盤10と同様である別の制御盤であってもよい。
第1の物体が認識された場合(S224:YES)、制御部210は、ステップS225の処理を実行する。具体的には、制御部210は、ステップS217において記録された第1の情報(付加情報)及び第2の情報(座標情報)を記憶部220から読み出す。ステップS226において、制御部210は、ステップS225において記憶部220から読み出された付加情報に応じたコンテンツを生成する。
ステップS227において、制御部210は、ステップS226において生成されたコンテンツを表示部250に表示させる。換言すれば、表示部250は、ステップS226において生成されたコンテンツを表示する。このとき、表示部250は、コンテンツを撮影画像に重ねて表示してもよい。
図9は、コンテンツの表示の一例を示す図である。表示部250は、撮影画像40と、コンテンツ41、42とを表示する。コンテンツ41は、付箋紙21に対応するコンテンツの一例である。また、コンテンツ42は、付箋紙22に対応するコンテンツの一例である。
制御部210は、ステップS217において記録された座標情報に基づいてコンテンツ41、42の表示位置を決定する。図9の例において、制御部210は、コンテンツ41、42の外枠を構成する吹き出しの先端と座標情報が示す位置とが一致するようにコンテンツ41、42の表示位置を決定する。なお、コンテンツ41、42の外枠の形状は、付箋紙21、22の形状と一致しなくてもよい。ただし、制御部210は、付箋紙21、22の形状に類似するようにコンテンツ41、42の外枠の形状を決定してもよい。また、制御部210は、付箋紙21、22が表示されていた位置と同一の位置にコンテンツ41、42を表示してもよい。
なお、制御部210は、コンテンツ41、42を所定の順序で表示させてもよい。例えば、制御部210は、付箋紙21、22から認識された序数(付箋紙21の「1」及び付箋紙22の「2」)に基づいて、コンテンツ41を先に表示させ、その所定時間後にコンテンツ42を表示させてもよい。コンテンツの表示順序は、付箋紙から認識可能な他の情報(色、形状など)に基づいて決定されてもよい。
以上に説明されたように、本実施形態の情報処理装置200は、第1実施形態の情報処理装置100の取得部110、認識部120及び記録部130に相当する構成を有することにより、情報処理装置100と同様の作用効果を奏することが可能である。また、情報処理装置200によれば、第2の物体(付箋紙)に関する情報を第1の物体(制御盤)と関連付けて記録する構成を有する。この構成によれば、第2の物体が認識されない状況においても、第2の物体に対応するコンテンツを第1の物体と第2の物体の位置関係に応じた表示態様で表示することが可能である。
また、情報処理装置200は、登録処理と表示処理の双方を実行可能な構成を有する。この構成によれば、ある撮影画像に基づいて第2の物体に関する情報を登録した後に、別の撮影画像に基づいて当該情報に応じたコンテンツを表示することが可能である。
[第3実施形態]
図10は、さらに別の実施形態に係る情報処理システム300の構成を示すブロック図である。情報処理システム300は、撮影装置310と、表示装置320とを含んで構成される。
撮影装置310は、画像を撮影する。撮影装置310は、例えば、デジタルカメラやウェアラブルデバイスである。撮影装置310は、撮影部311と、通信部312とを含んで構成される。撮影部311は、第2実施形態の撮影部230と同様の構成を有する。撮影部311は、撮影画像を表す画像データを生成する。通信部312は、有線又は無線により表示装置320に画像データを送信する。
なお、撮影装置310は、メモリカード等の着脱可能な記憶媒体に画像データを記録してもよい。この場合、表示装置320は、通信部230に相当する構成を必要としない。このような場合、表示装置320は、画像データが記録された記憶媒体から画像データを読み出すように構成されてもよい。
また、撮影部311は、動画を撮影する機能を有してもよい。すなわち、ここでいう撮影画像は、動画を含み得る。また、撮影部311は、動画を撮影する機能に代えて静止画を複数枚撮影する機能を有してもよい。
表示装置320は、制御部321と、記憶部322と、通信部323と、画像処理部324と、表示部325とを含んで構成される。表示装置320は、撮影部230に代えて通信部323を有するほかは、第2実施形態の情報処理装置200と同様の構成を有する。ただし、画像処理部324が実行する画像処理は、画像処理部240が実行する画像処理と異なる部分がある。
情報処理システム300の構成は、以上のとおりである。この構成のもと、撮影装置310は、画像を撮影し、画像データを送信する。また、表示装置320は、画像データから物体を認識し、認識された物体に応じた情報を記録する。また、表示装置320は、記録された情報に応じたコンテンツを表示する。
本実施形態において認識対象とされる物体は、ホワイトボードに貼付された付箋紙である。ユーザは、例えば、ブレインストーミング等の会議において、ホワイトボードに文字や図形を記入したり、付箋紙を貼付したりする。ユーザは、撮影装置310を用いてホワイトボードを撮影することにより、撮影画像に応じた情報を表示装置320に記録することができる。また、ユーザは、表示装置320を用いて、表示装置320に記録された情報に対応するコンテンツを閲覧することができる。
本実施形態の付箋紙は、所定のフォーマットを有する。具体的には、本実施形態の付箋紙は、個々の付箋紙を識別し、撮影部311からみた位置及び姿勢を特定することを可能にする図形を含んで構成される。この図形は、例えば、2次元コードやARマーカである。
図11は、本実施形態の付箋紙を例示する図である。この例において、付箋紙は、マーカ領域A1と情報記入領域A2とを含む。マーカ領域A1は、所定のサイズの枠線と、ドット状のコード情報とがプリンタ等によってあらかじめ印字された領域である。マーカ領域A1の枠線の形状は、本実施形態においては正方形である。また、コード情報は、ドットの位置が付箋紙毎に異なることにより、各々の付箋紙を識別可能にする。マーカ領域A1に形成されたこれらの図形のことを、以下においては「マーカ」ともいう。情報記入領域A2は、ユーザが文字又は図形を記入する領域である。
表示装置320は、撮影画像における枠線のサイズによって付箋紙と撮影装置310との間の距離を特定することができる。また、表示装置320は、撮影画像における枠線の歪み、すなわち正方形からの変形の程度によって撮影装置310からみた付箋紙の奥行き方向の傾きを特定してもよい。
なお、付箋紙の一部は、ホワイトボードの位置を特定するために用いられてもよい。この場合、ユーザは、ホワイトボードの所定の位置に付箋紙を貼付する。例えば、ユーザは、ホワイトボードの隅に付箋紙を貼付する。このようにすれば、情報処理システム300によるホワイトボードの位置、サイズ、境界などの認識を容易にすることができる。
図12は、本実施形態における付箋紙の貼付の一例を示す図である。この例において、付箋紙31、32は、ホワイトボード30の隣り合わない2つの隅(左上と右下)に貼付されている。付箋紙31、32は、情報処理システム300がホワイトボード30の位置を認識するために貼付される。そのため、ユーザは、付箋紙31、32の情報記入領域A2に文字や図形を記入しなくてもよい。一方、付箋紙33、34、35、36、37、38は、ユーザによって任意の位置に貼付される。
ユーザは、付箋紙を貼付した後、撮影装置310によってホワイトボードを撮影する。ユーザは、1回又は複数回の撮影によりホワイトボード全体を撮影する。例えば、ユーザは、付箋紙に記入された文字等が撮影画像から認識できないような場合には、よりホワイトボードに接近して撮影を実行すればよい。
図13は、表示装置320が実行する登録処理を示すフローチャートである。ステップS311において、通信部323は、撮影装置310において生成された画像データを受信する。ステップS312において、画像処理部324は、ステップS311において受信された画像データから物体を認識する。本実施形態において、画像処理部324は、付箋紙を認識する。
ステップS313において、制御部321は、1枚の撮影画像に2以上の付箋紙が含まれているか判断する。制御部321は、1枚の撮影画像に2以上の付箋紙が含まれている場合(S313:YES)、ステップS314において、これらの付箋紙の相対的な位置関係を特定する。具体的には、制御部321は、撮影画像に含まれる付箋紙のうちいずれかの位置を基準とし、他の付箋紙の座標を計算する。
一方、1枚の撮影画像に2以上の付箋紙が含まれていない場合(S313:NO)、制御部321は、ステップS314の処理をスキップする。すなわち、制御部321は、この場合、座標の計算を実行しない。換言すれば、2以上の付箋紙が含まれない撮影画像を表す画像データは、ステップS314の処理対象から除外されるということである。
図14は、ステップS314における座標の計算方法を例示する図である。この例において、撮影画像IM1、IM2は、いずれも複数個のマーカ(すなわち付箋紙)を含んでいる。具体的には、撮影画像IM1は、マーカM01、M02、M03を含んでいる。また、撮影画像IM2は、マーカM03、M04、M05を含んでいる。
この場合、制御部321は、マーカM01とM02、マーカM01とM03、マーカM02とM03の相対的な位置関係を撮影画像IM1から特定する。また、制御部321は、マーカM03とM04、マーカM03とM05、マーカM04とM05の相対的な位置関係を撮影画像IM2から特定する。
図15は、制御部321により計算される座標情報を例示する図である。この例において、座標情報は、ホワイトボードの水平方向(横方向)をx軸、垂直方向(縦方向)をy軸、奥行き方向をz軸とする直交座標系を用いて記述されている。また、説明の便宜上、この例においては、奥行き方向に傾いておらず、マーカに歪みが生じていないものとする。したがって、この例においては、座標情報のz成分がいずれも「0」である。
図15の表において、第1行には、マーカM01の位置を原点とした場合のマーカM02、M03の座標が記述されている。マーカM01の位置を原点とした場合のマーカM02の座標は、(x,y,z)=(12,−25,0)である。なお、この座標は、例示にすぎず、図14に記載されたマーカの配置と必ずしも一致しない。同様に、第2行には、マーカM02の位置を原点とした場合のマーカM03の座標が記述されている。また、第3行には、マーカM03の位置を原点とした場合のマーカM04、M05の座標が記述されている。また、第4行には、マーカM04の位置を原点とした場合のマーカM05の座標が記述されている。
なお、制御部321は、1枚の撮影画像に含まれないマーカのペアの座標を算出しなくてもよい。この例の場合、制御部321は、例えばマーカM01とマーカM04のペアや、マーカM01とマーカM05のペアについては、座標の計算を省略することができる。
また、制御部321は、同一のペアが複数の撮影画像に含まれる場合には、それぞれの撮影画像に基づいて座標情報を計算し、算出された座標情報を平均することで座標情報を決定してもよい。この場合、制御部321は、いわゆる外れ値に相当する座標情報をノイズとみなし、これを除外してから平均値を計算してもよい。例えば、制御部321は、同一の付箋紙に相当する複数の座標情報の平均値(μ)及び標準偏差(σ)を算出し、平均値から所定の範囲(例えばμ±2σの範囲)に含まれない座標情報をノイズとして除外してから平均値を再度計算してもよい。
ステップS315において、制御部321は、全部の付箋紙が認識されたか判断する。いくつかの態様において、付箋紙の総数は、あらかじめ決められている。あるいは、特定の付箋紙(例えば付箋紙31又は32)が最後に読み取られるべき付箋紙としてあらかじめ決められていてもよい。この場合、制御部321は、この特定の付箋紙が認識されたことをもって全部の付箋紙が認識されたと判断すればよい。さらには、全部の付箋紙が認識された時点でユーザが所定の操作を実行してもよい。この場合、制御部321は、所定の操作を受け付けたことをもって全部の付箋紙が認識されたと判断すればよい。
全部の付箋紙が認識されていない場合(S315:NO)、表示装置320は、撮影装置310から受信した画像データのそれぞれについてステップS311〜S314の処理を実行し、これらの処理が終わる毎にS315の判断を実行する。制御部321は、全部の付箋紙が認識されるまで、ステップS311〜S315の処理を繰り返す。
全部の付箋紙が認識された場合(S315:YES)、制御部321は、ステップS316の処理を実行する。ここで、制御部321は、ステップS314において計算された座標に対して座標変換を実行する。ステップS314において計算された座標は、基準となる位置がマーカ毎に異なり得る。換言すれば、ステップS314において計算された座標は、原点がそれぞれ異なり得る。ステップS316の処理は、このように撮影画像毎に独立に定義された座標系を統一するための処理である。
例えば、制御部321は、特定のマーカの位置が原点になるように座標情報を変換する。ここで、マーカM01の位置を原点とすると、制御部321は、マーカM01を基準としたマーカM04の座標情報を、マーカM01とマーカM03のペアの座標情報とマーカM03とマーカM04のペアの座標情報とに基づいて算出することができる。具体的には、制御部321は、座標情報の成分毎に加算又は減算を実行する。
なお、座標変換後、同一(又は実質的に同一)の座標に複数のマーカが対応付けられた場合、すなわち複数のマーカが同一の座標に重なる場合には、制御部321は、所定の処理を実行してもよい。例えば、制御部321は、この複数のマーカのそれぞれの認識された回数をカウントし、認識回数がより多いマーカの座標情報を正しい座標情報として選択してもよい。ここでいう認識回数は、ノイズとして除外された座標情報に対応する撮影画像を除外してカウントされてもよい。
全てのマーカの座標変換が終了したら、画像処理部324は、ステップS317において、情報記入領域A2の画像の歪みを補正する。画像処理部324は、マーカ領域A1の歪みにより特定されるマーカの傾きに応じた補正量で情報記入領域A2の画像の歪みを補正する。ただし、ステップS317の処理は、必須の処理ではない。例えば、ステップS317の処理は、各マーカがほぼ正面から撮影されており、撮影画像における歪みが少ない場合であれば省略可能である。
ステップS318において、制御部321は、第1の情報及び第2の情報を記憶部322に記録する。本実施形態の第1の情報は、各付箋紙の情報記入領域A2を表す画像データである。この画像データは、付加情報の一例に相当する。また、第1の情報は、付箋紙の色や形状を示す情報を含んでもよい。また、本実施形態の第2の情報は、座標変換後の各マーカの座標情報である。
制御部321は、同一の付箋紙について情報記入領域A2を表す画像データが複数得られた場合、いずれかの1つの画像データのみを付加情報として記録してもよい。例えば、制御部321は、複数の画像データのうち、解像度が最も高いものを記録してもよいし、歪みが最も少ないものを記録してもよい。このようにすれば、付加情報の抽出に適した画像データを選択的に記録しておくことが可能である。
制御部321は、撮影されたホワイトボードを表す画像データを第1の情報及び第2の情報と関連付けて記憶部322に記録してもよい。制御部321は、ホワイトボード全体が複数回の撮影によって撮影された場合には、それぞれの撮影画像を合成することによってホワイトボード全体を表す画像データを生成してもよい。
表示装置320は、このように情報を記録した後、所定のプログラムを実行することにより、ステップS318において記録された情報に応じたコンテンツを表示することができる。本実施形態において、表示装置320は、第2実施形態の情報処理装置200と異なり、コンテンツの表示時にホワイトボードを撮影することを必要としない。例えば、ここでいう所定のプログラムは、文書作成ソフトウェアやプレゼンテーションソフトウェアであってもよい。
図16は、表示装置320によるコンテンツの表示の一例を示す図である。図16に示されるコンテンツは、図12に例示された付箋紙に対応するコンテンツの一例である。コンテンツ41、42、43、44、45、46は、それぞれ、図12の付箋紙33、34、35、36、37、38に対応するコンテンツである。例えば、コンテンツ41は、付箋紙33に対応する。
コンテンツ41〜46の配置は、座標変換後の座標情報に基づいて決定される。したがって、コンテンツ41〜46は、付箋紙33〜38の相対的な位置関係に応じて表示される。なお、付箋紙31、32は、ホワイトボードの位置を認識するために貼付される付箋紙であるため、コンテンツとして表示されなくてもよい。
コンテンツを表示するとき、制御部321は、第1の情報に基づいて色や形状を決定してもよい。例えば、制御部321は、付箋紙の色に応じてコンテンツの形状を異ならせてもよい。あるいは、制御部321は、付箋紙の形状に応じてコンテンツの色を異ならせてもよい。
制御部321は、ホワイトボードに記入された文字等を表す画像をコンテンツとともに表示部325に表示させてもよい。例えば、制御部321は、コンテンツをホワイトボードに記入された文字等を表す画像の上に重ねて表示させてもよい。このようにすれば、ユーザは、ホワイトボードに貼付された付箋紙に応じたコンテンツだけでなく、ホワイトボードに記入された文字等も閲覧することが可能になる。また、制御部321は、この場合、付箋紙に関する座標情報や付加情報をホワイトボードの画像を示す画像データに関連付けて記録してもよい。
以上に説明されたように、本実施形態の情報処理システム300は、複数の物体(付箋紙)を認識し、認識された複数の物体の位置関係に応じた情報を記録する構成を有する。この構成により、情報処理システム300は、認識された複数の物体の位置関係に応じたコンテンツを表示することが可能である。例えば、情報処理システム300は、複数の物体の位置関係を再現するようにコンテンツを表示することが可能である。ユーザは、ホワイトボードに記載された内容を書き写したり、文書作成ソフトウェアによって入力し直したりしなくても、ホワイトボードの内容を再現することができる。
[変形例]
本開示は、上述された実施形態に限定されない。本開示は、当業者が把握し得る変形又は応用を適用した実施の形態を含み得る。例えば、本開示は、以下に記載される変形例に従った形態を含む。また、本開示は、本明細書に記載された事項を必要に応じて適宜に組み合わせた形態を含み得る。例えば、特定の実施形態を用いて説明された事項は、矛盾を生じない範囲において、他の実施形態に対しても適用され得る。
(変形例1)
第2実施形態の制御部210は、画像処理部240が実行する処理の一部又は全部を実行するように構成されてもよい。また、このような変形は、第3実施形態の制御部321にも適用可能である。
図17は、制御部210の変形例を示すブロック図である。この例において、制御部210は、取得部211と、物体認識部212と、抽出部213と、記録部214とを含んで構成される。取得部211は、撮影部230により生成された画像データや、記憶部220に記憶されたデータを取得する。物体認識部212、抽出部213は、それぞれ、画像処理部240の物体認識部241と、抽出部242に相当する。記録部214は、物体認識部212により認識された物体に関する情報を記録する。
(変形例2)
第2実施形態において表示されるコンテンツには、所定の処理が割り当てられてもよい。情報処理装置200は、表示されているコンテンツに対してユーザが所定の操作を行った場合に、当該コンテンツに割り当てられた処理を実行する。ここでいう所定の操作は、例えば、コンテンツを指で触れたり、コンテンツをレーザーポインターで指し示したりする行為である。情報処理装置200は、このような操作を撮影画像に基づいて検出することができる。
図18は、コンテンツに所定の処理を割り当てる場合の付箋紙を例示する図である。この付箋紙は、図11に例示された情報記入領域A2に代えて、第1の領域A21と第2の領域A22とを含む。第1の領域A21には、情報記入領域A2と同様に、コンテンツに対応する文字又は図形が記入される。第2の領域には、処理に対応する文字又は図形が記入される。第2の領域A22には、それぞれの処理に対応するシールが貼付されてもよい。
文字又は図形と処理の対応付けは、例えば、文字「A」に対しては第1の処理、文字「B」に対しては第2の処理、というように行われる。ここでいう処理は、例えば、特定のコンテンツを消去したり、特定のコンテンツの表示態様を変化させたりする処理である。あるいは、ここでいう処理は、特定のデータを入力する処理であってもよい。
抽出部242は、第1の領域A21と第2の領域A22のそれぞれから付加情報を抽出する。説明の便宜上、以下においては、第1の領域A21から抽出される付加情報を「第1の付加情報」といい、第2の領域A22から抽出される付加情報を「第2の付加情報」という。
制御部210は、第1の付加情報に応じたコンテンツを表示部250に表示させる。制御部210は、コンテンツの表示後、いずれかのコンテンツに対する所定の操作を検出すると、当該コンテンツに対応する第2の付加情報に応じた処理を実行する。これにより、コンテンツは、入力インタフェースとして機能することができる。
(変形例3)
第2実施形態において、制御盤を認識するための手法として第3実施形態の手法を用いてもよい。すなわち、ユーザは、制御盤を認識するための付箋紙を制御盤の特定の位置(例えば隅)に貼付してもよい。制御盤を認識するための付箋紙は、図12に示される付箋紙31、32に相当する。
情報処理装置200は、このような付箋紙を用いて制御盤を事前に学習してもよい。すなわち、情報処理装置200は、制御盤を認識するための付箋紙が貼付された状態で制御盤を撮影することにより、制御盤を認識対象であると認識することができる。
(変形例4)
第2実施形態の付箋紙は、手書き文字以外の情報を含んでもよい。例えば、いわゆるピクトグラムや、マーカ以外の所定の図形(2次元コード、バーコードなど)が付箋紙の表面に形成されてもよい。この場合、抽出部242は、2次元コード等の図形から付加情報を抽出してもよい。
(変形例5)
認識対象となる物体は、各実施形態に例示された物体に限定されない。認識対象となる物体は、他の物体と識別可能な一定の特徴を有していればよい。例えば、第3実施形態におけるホワイトボードは、壁面、紙、ノートなどに置き換えてもよい。また、第2実施形態又は第3実施形態における付箋紙は、ステッカーやマグネットであってもよい。
(変形例6)
物体の認識には、3D(3次元)モデルが用いられてもよい。すなわち、認識対象となる物体は、あらかじめ3Dモデルが生成されたものであってもよい。
(変形例7)
認識対象となる物体の位置検出には、他のセンサが用いられてもよい。例えば、3Dカメラ(距離画像センサ)によって物体の位置(距離を含む。)が検出されてもよい。あるいは、磁気センサによって物体の位置が検出されてもよい。
(変形例8)
本開示に係る各装置(情報処理装置100、200、撮影装置310及び表示装置320)の具体的なハードウェア構成は、さまざまなバリエーションが含まれ、特定の構成に限定されない。例えば、各装置は、ソフトウェアを用いて実現されてもよく、複数のハードウェアを用いて各種処理を分担するように構成されてもよい。
図19は、各装置を実現するコンピュータ装置400のハードウェア構成の一例を示すブロック図である。コンピュータ装置400は、CPU401と、ROM(Read Only Memory)402と、RAM(Random Access Memory)403と、記憶装置404と、ドライブ装置405と、通信インタフェース406と、入出力インタフェース407とを備える。本開示に係る各装置は、図19に示される構成(又はその一部)によって実現され得る。
CPU401は、RAM403を用いてプログラム408を実行する。プログラム408は、ROM402に記憶されていてもよい。また、プログラム408は、メモリカード等の記録媒体409に記録され、ドライブ装置405によって読み出されてもよいし、外部装置からネットワーク410を介して送信されてもよい。通信インタフェース406は、ネットワーク410を介して外部装置とデータをやり取りする。入出力インタフェース407は、周辺機器(入力装置、表示装置など)とデータをやり取りする。通信インタフェース406及び入出力インタフェース407は、データを取得又は出力する手段として機能することができる。
なお、各装置の構成要素は、単一の回路(プロセッサ等)によって構成されてもよいし、複数の回路の組み合わせによって構成されてもよい。ここでいう回路(circuitry)は、専用又は汎用のいずれであってもよい。
上述された実施形態において単体の装置として説明された構成は、複数の装置に分散して設けられてもよい。例えば、情報処理装置100、200は、クラウドコンピューティング技術などを用いて、複数のコンピュータ装置によって実現されてもよい。
以上、上述した実施形態及び変形例を模範的な例として本発明を説明した。しかしながら、本発明は、上述した実施形態及び変形例には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
[付記]
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
画像を取得する取得手段と、
前記取得手段により取得された画像から物体を認識する認識手段と、
前記認識手段により物体が認識された場合に、当該物体に対応する第1の情報を、当該物体の位置に関する第2の情報とともに記録する記録手段と
を備える情報処理装置。
(付記2)
前記記録手段は、前記認識手段により複数の物体が認識された場合に、前記第2の情報として当該複数の物体の位置関係に応じた情報を記録する
付記1に記載の情報処理装置。
(付記3)
前記記録手段は、前記取得手段により取得された第1の画像から前記認識手段により第1の物体と第2の物体とが認識された場合に、前記第1の情報と、当該第2の物体の位置に関する前記第2の情報とを当該第1の物体に関連付けて記録する
付記2に記載の情報処理装置。
(付記4)
表示手段をさらに備え、
前記表示手段は、前記取得手段により第2の画像が取得され、前記認識手段により当該第2の画像から前記第1の物体が認識された場合に、当該第1の物体に関連付けられた前記第1の情報に応じたコンテンツを前記第2の情報に応じた位置に表示する
付記3に記載の情報処理装置。
(付記5)
前記表示手段は、前記コンテンツを前記第1の物体とともに表示する
付記4に記載の情報処理装置。
(付記6)
前記表示手段は、前記コンテンツを前記第1の物体に対して所定の位置に表示する
付記5に記載の情報処理装置。
(付記7)
前記認識手段により認識された物体から付加情報を抽出する抽出手段をさらに備え、
前記記録手段は、前記抽出手段により抽出された付加情報を前記第1の情報として記録する
付記1から付記6までのいずれかに記載の情報処理装置。
(付記8)
前記付加情報は、表示されるコンテンツに対応する第1の付加情報と、当該コンテンツに割り当てられる処理に対応する第2の付加情報とを含む
付記7に記載の情報処理装置。
(付記9)
前記取得手段は、複数の画像を取得し、
前記認識手段は、前記複数の画像のそれぞれから複数の物体を認識し、
前記記録手段は、前記複数の物体の位置関係を表す座標情報を前記複数の画像毎に算出し、当該座標情報の座標系を統一する座標変換により変換された座標情報を前記第2の情報として記録する
付記1から付記8までのいずれかに記載の情報処理装置。
(付記10)
前記認識手段は、前記複数の画像から同一の物体を認識し、
前記記録手段は、前記複数の画像から認識された同一の物体の座標情報の平均値を当該物体の座標情報とする
付記9に記載の情報処理装置。
(付記11)
前記記録手段は、前記平均値から所定の範囲に含まれない座標情報を除外して平均値を再度計算する
付記10に記載の情報処理装置。
(付記12)
前記記録手段は、同一の座標に2つの異なる物体が対応付けられた場合に、前記認識手段により認識された回数に基づいていずれかの物体を選択する
付記9に記載の情報処理装置。
(付記13)
画像を取得し、
前記取得された画像から物体を認識し、
前記物体が認識された場合に、当該物体に対応する第1の情報を、当該物体の位置に関する第2の情報とともに記録する
情報処理方法。
(付記14)
コンピュータに、
画像を取得する処理と、
前記取得された画像から物体を認識する処理と、
前記物体が認識された場合に、当該物体に対応する第1の情報を、当該物体の位置に関する第2の情報とともに記録する処理と
を実行させるためのプログラムを記録したコンピュータ読取可能なプログラム記録媒体。
この出願は、2016年4月14日に出願された日本出願特願2016−081007を基礎とする優先権を主張し、その開示の全てをここに取り込む。
100、200 情報処理装置
110 取得部
120 認識部
130 記録部
210 制御部
220 記憶部
230 撮影部
240 画像処理部
241 物体認識部
242 抽出部
250 表示部
300 情報処理システム
310 撮影装置
311 撮影部
312 通信部
320 表示装置
321 制御部
322 記憶部
323 通信部
324 画像処理部
325 表示部
400 コンピュータ装置

Claims (14)

  1. 画像を取得する取得手段と、
    前記取得手段により取得された画像から物体を認識する認識手段と、
    前記認識手段により物体が認識された場合に、当該物体に対応する第1の情報を、当該物体の位置に関する第2の情報とともに記録する記録手段と
    を備える情報処理装置。
  2. 前記記録手段は、前記認識手段により複数の物体が認識された場合に、前記第2の情報として当該複数の物体の位置関係に応じた情報を記録する
    請求項1に記載の情報処理装置。
  3. 前記記録手段は、前記取得手段により取得された第1の画像から前記認識手段により第1の物体と第2の物体とが認識された場合に、前記第1の情報と、当該第2の物体の位置に関する前記第2の情報とを当該第1の物体に関連付けて記録する
    請求項2に記載の情報処理装置。
  4. 表示手段をさらに備え、
    前記表示手段は、前記取得手段により第2の画像が取得され、前記認識手段により当該第2の画像から前記第1の物体が認識された場合に、当該第1の物体に関連付けられた前記第1の情報に応じたコンテンツを前記第2の情報に応じた位置に表示する
    請求項3に記載の情報処理装置。
  5. 前記表示手段は、前記コンテンツを前記第1の物体とともに表示する
    請求項4に記載の情報処理装置。
  6. 前記表示手段は、前記コンテンツを前記第1の物体に対して所定の位置に表示する
    請求項5に記載の情報処理装置。
  7. 前記認識手段により認識された物体から付加情報を抽出する抽出手段をさらに備え、
    前記記録手段は、前記抽出手段により抽出された付加情報を前記第1の情報として記録する
    請求項1から請求項6までのいずれか1項に記載の情報処理装置。
  8. 前記付加情報は、表示されるコンテンツに対応する第1の付加情報と、当該コンテンツに割り当てられる処理に対応する第2の付加情報とを含む
    請求項7に記載の情報処理装置。
  9. 前記取得手段は、複数の画像を取得し、
    前記認識手段は、前記複数の画像のそれぞれから複数の物体を認識し、
    前記記録手段は、前記複数の物体の位置関係を表す座標情報を前記複数の画像毎に算出し、当該座標情報の座標系を統一する座標変換により変換された座標情報を前記第2の情報として記録する
    請求項1から請求項8までのいずれか1項に記載の情報処理装置。
  10. 前記認識手段は、前記複数の画像から同一の物体を認識し、
    前記記録手段は、前記複数の画像から認識された同一の物体の座標情報の平均値を当該物体の座標情報とする
    請求項9に記載の情報処理装置。
  11. 前記記録手段は、前記平均値から所定の範囲に含まれない座標情報を除外して平均値を再度計算する
    請求項10に記載の情報処理装置。
  12. 前記記録手段は、同一の座標に2つの異なる物体が対応付けられた場合に、前記認識手段により認識された回数に基づいていずれかの物体を選択する
    請求項9に記載の情報処理装置。
  13. 画像を取得し、
    前記取得された画像から物体を認識し、
    前記物体が認識された場合に、当該物体に対応する第1の情報を、当該物体の位置に関する第2の情報とともに記録する
    情報処理方法。
  14. コンピュータに、
    画像を取得する処理と、
    前記取得された画像から物体を認識する処理と、
    前記物体が認識された場合に、当該物体に対応する第1の情報を、当該物体の位置に関する第2の情報とともに記録する処理と
    を実行させるためのプログラムを記録したコンピュータ読取可能なプログラム記録媒体。
JP2018512010A 2016-04-14 2017-04-10 情報処理装置、情報処理方法及びプログラム Active JP6915611B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016081007 2016-04-14
JP2016081007 2016-04-14
PCT/JP2017/014692 WO2017179543A1 (ja) 2016-04-14 2017-04-10 情報処理装置、情報処理方法及びプログラム記録媒体

Publications (2)

Publication Number Publication Date
JPWO2017179543A1 true JPWO2017179543A1 (ja) 2019-02-21
JP6915611B2 JP6915611B2 (ja) 2021-08-04

Family

ID=60042583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018512010A Active JP6915611B2 (ja) 2016-04-14 2017-04-10 情報処理装置、情報処理方法及びプログラム

Country Status (3)

Country Link
US (1) US10740614B2 (ja)
JP (1) JP6915611B2 (ja)
WO (1) WO2017179543A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
CN113302647A (zh) * 2018-12-28 2021-08-24 工藤浩 专利战略导航图的图示方法、支援专利战略导航图的图示的电子系统、专利战略导航图、专利战略导航图的生成方法、管理系统、计算机程序及专利战略导航图的组件
JP7385424B2 (ja) * 2019-10-21 2023-11-22 株式会社日立オートメーション 移載対象ワーク向き認識システム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002278960A (ja) * 2001-03-16 2002-09-27 Matsushita Electric Ind Co Ltd 画像情報処理装置
JP2006214832A (ja) * 2005-02-02 2006-08-17 Canon Inc 指標配置計測方法、位置姿勢推定方法、指標配置計測装置、位置姿勢推定装置
US20110010122A1 (en) * 2009-07-07 2011-01-13 Delta Design, Inc. Calibrating separately located cameras with a double sided visible calibration target for ic device testing handlers
US20110249299A1 (en) * 2010-04-07 2011-10-13 Xerox Corporation Preserving user applied markings made to a hardcopy original document
JP2012175666A (ja) * 2011-02-24 2012-09-10 Ohbayashi Corp 画像合成方法
JP2014023088A (ja) * 2012-07-23 2014-02-03 Fuji Xerox Co Ltd 画像形成装置および試験データ
JP2015114933A (ja) * 2013-12-13 2015-06-22 国立大学法人 東京大学 物体認識装置、ロボット及び物体認識方法
JP2015211363A (ja) * 2014-04-28 2015-11-24 富士通株式会社 表示制御装置、表示制御方法および表示制御プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6225538B2 (ja) 2013-07-24 2017-11-08 富士通株式会社 情報処理装置、システム、情報提供方法および情報提供プログラム
JP6303723B2 (ja) 2014-03-31 2018-04-04 コニカミノルタ株式会社 表示制御装置および表示制御装置の制御プログラム
US10725297B2 (en) * 2015-01-28 2020-07-28 CCP hf. Method and system for implementing a virtual representation of a physical environment using a virtual reality environment
JP6572618B2 (ja) * 2015-05-08 2019-09-11 富士通株式会社 情報処理装置、情報処理プログラム、情報処理方法、端末装置、設定方法、設定プログラム
US9558467B1 (en) * 2016-03-02 2017-01-31 Software Ag Systems and/or methods for grid-based multi-level digitization of enterprise models

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002278960A (ja) * 2001-03-16 2002-09-27 Matsushita Electric Ind Co Ltd 画像情報処理装置
JP2006214832A (ja) * 2005-02-02 2006-08-17 Canon Inc 指標配置計測方法、位置姿勢推定方法、指標配置計測装置、位置姿勢推定装置
US20110010122A1 (en) * 2009-07-07 2011-01-13 Delta Design, Inc. Calibrating separately located cameras with a double sided visible calibration target for ic device testing handlers
US20110249299A1 (en) * 2010-04-07 2011-10-13 Xerox Corporation Preserving user applied markings made to a hardcopy original document
JP2012175666A (ja) * 2011-02-24 2012-09-10 Ohbayashi Corp 画像合成方法
JP2014023088A (ja) * 2012-07-23 2014-02-03 Fuji Xerox Co Ltd 画像形成装置および試験データ
JP2015114933A (ja) * 2013-12-13 2015-06-22 国立大学法人 東京大学 物体認識装置、ロボット及び物体認識方法
JP2015211363A (ja) * 2014-04-28 2015-11-24 富士通株式会社 表示制御装置、表示制御方法および表示制御プログラム

Also Published As

Publication number Publication date
WO2017179543A1 (ja) 2017-10-19
JP6915611B2 (ja) 2021-08-04
US10740614B2 (en) 2020-08-11
US20190114483A1 (en) 2019-04-18

Similar Documents

Publication Publication Date Title
JP5783885B2 (ja) 情報提示装置、その方法及びそのプログラム
JP6507730B2 (ja) 座標変換パラメータ決定装置、座標変換パラメータ決定方法及び座標変換パラメータ決定用コンピュータプログラム
JP6441932B2 (ja) アイレベルスキャナ及びディスプレイのポインタ追跡
CN103189827B (zh) 对象显示装置以及对象显示方法
US10198661B2 (en) System for determining alignment of a user-marked document and method thereof
CN109584307B (zh) 改进摄像机固有参数校准的系统和方法
US20170293959A1 (en) Information processing apparatus, shelf label management system, control method, and program
US7286725B2 (en) Information presentation apparatus for suggesting a presentation accuracy of related information and information presentation method
US9836665B2 (en) Management system, list production device, method, computer readable recording medium, data structure, and printed label
JP6439566B2 (ja) 多言語表示装置、多言語表示システム、多言語表示方法及び多言語表示プログラム
WO2017179543A1 (ja) 情報処理装置、情報処理方法及びプログラム記録媒体
CN112001886A (zh) 一种温度检测方法、装置、终端及可读存储介质
JP2015191382A (ja) 画像データ処理装置、方法、及びプログラム
JP6687199B2 (ja) 商品棚位置登録プログラム、及び情報処理装置
CN111488775A (zh) 注视度判断装置及方法
US8606000B2 (en) Device and method for identification of objects using morphological coding
US11989928B2 (en) Image processing system
JP3860560B2 (ja) 表示インタフェース方法および装置
JP2020123105A (ja) 学習装置、学習方法、学習プログラム、及び対象物認識装置
US10083545B2 (en) Image processing device, image processing method, and non-transitory computer-readable recording medium for specifying markers in accepted image data
US20200302643A1 (en) Systems and methods for tracking
JP2013502634A (ja) 形態学的コーディングを使用してオブジェクトを識別する装置および方法
JP7309171B2 (ja) 光学式認識コード読取装置、方法及びプログラム
JP2016091193A (ja) 画像処理装置、画像処理方法およびプログラム
US11636827B2 (en) Method for managing the display of a least one information item, and associated computer program product, information medium and display system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180921

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210628

R150 Certificate of patent or registration of utility model

Ref document number: 6915611

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150