JP2012203645A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2012203645A
JP2012203645A JP2011067525A JP2011067525A JP2012203645A JP 2012203645 A JP2012203645 A JP 2012203645A JP 2011067525 A JP2011067525 A JP 2011067525A JP 2011067525 A JP2011067525 A JP 2011067525A JP 2012203645 A JP2012203645 A JP 2012203645A
Authority
JP
Japan
Prior art keywords
image data
determination unit
information processing
time
touched
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011067525A
Other languages
English (en)
Other versions
JP5762075B2 (ja
Inventor
Hiromi Omi
裕美 近江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011067525A priority Critical patent/JP5762075B2/ja
Publication of JP2012203645A publication Critical patent/JP2012203645A/ja
Application granted granted Critical
Publication of JP5762075B2 publication Critical patent/JP5762075B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ユーザが見たい画像データを煩雑な操作を行うことなく優先的に検索する。
【解決手段】オブジェクト特定部108は、ユーザによって選択されたオブジェクトを特定する。特徴抽出部109は、オブジェクト特定部108により特定されたオブジェクトの特徴を抽出する。画像検索部110は、抽出された特徴に基づいて、上記オブジェクトを含む画像データと他の複数の画像データとの類似度を算出し、類似度に従って、他の複数の画像データを検索する。
【選択図】図1

Description

本発明は、ユーザが見たい画像データを画像データ群から検索するための技術に関するものである。
近年、デジタルカメラ等に用いられる内蔵メモリの小型化、大容量化が促進され、大量の画像データが蓄積されるようになった。これにより、過去に撮影した画像データの蓄積数も増え、ユーザが多数の画像データの中から所望の画像データを見つけ出すのに長時間を要す等の問題があった。
特許文献1には、操作者の視線方向を検出することによって、注目された部分の特徴と一致又は類似した特徴を有する画像データを優先的に表示する技術が開示されている。また、特許文献2には、画像データの特徴を画面上の画像データとは別の特定のエリアに表示し、ユーザがなぞるエリアと方向に応じて画像データの表示を変える技術が開示されている。
特開平9−114846号公報 特開2010−109788号公報
特許文献1に開示された技術においては、注目されている部分の特徴と一致又は類似した特徴を有する画像データを優先的に表示することが可能になる。しかしながら、複数の特徴を指定したい場合、視線による指定は困難である。
また、特許文献2に開示された技術においては、時間やイベントといった特徴の軸に沿って容易に画像データを閲覧することができる。しかしながら、特許文献2に開示される技術では、画像データとは違うエリアを別途設けているため、タッチする場所が直観的ではない等の問題がある。
そこで、本発明の目的は、ユーザが見たい画像データを煩雑な操作を行うことなく優先的に検索することにある。
本発明の情報処理装置は、ユーザによって選択されたオブジェクトを特定する特定手段と、前記特定手段により特定された前記オブジェクトの特徴を抽出する抽出手段と、前記抽出手段により抽出された前記特徴に基づいて、前記オブジェクトを含む画像データと他の複数の画像データとの類似度を算出する算出手段と、前記算出手段により算出された前記類似度に従って、前記他の複数の画像データを検索する検索手段とを有することを特徴とする。
本発明によれば、ユーザが見たい画像データを煩雑な操作を行うことなく優先的に検索することが可能となる。
本発明の実施形態に係る情報処理システムの構成を示す図である。 本発明の実施形態に係る情報処理システムのハードウェア構成の一部を示す図である。 画像データ群の一例を示す図である。 画像データ群の表示状態を示す図である。 画像データ群の表示状態を示す図である。 画像データ群の表示状態を示す図である。 選択操作判定部の処理を示すフローチャートである。 複数箇所(N箇所)が同時にタッチされたか否かの判定処理を示すフローチャートである。 画像ブラウジングの際の処理を示すフローチャートである。 画像データ群の表示状態等を示す図である。 画像データ群の表示状態等を示す図である。 画像データ群の表示状態等を示す図である。 典型的な右手及び左手の1本〜5本の指の配置パターンを示す図である。 選択操作判定部の第9の変形例における処理を示すフローチャートである。 画像データ群の表示状態を示す図である。 画像ブラウジングの際の処理を示すフローチャートである。
以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。
先ず、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係る情報処理システムの構成を示す図である。図1(a)に示すように、本実施形態に係る情報処理システムは、入力装置101、表示装置102、制御装置103及び記憶装置104により構成される。図1の例では、101〜104を独立した装置で構成しているが、これらの装置の機能を単一の装置内に備える構成であってもよい。
複数オブジェクト指定部105は、ユーザによるタッチ入力を受け付ける。1箇所のタッチや複数箇所のタッチのほか、ドラッグ(タッチしたまま指でずらす操作)やフリック(タッチした指を軽くはらう操作)の検出を行う。また、複数オブジェクト指定部105は、タッチ、ドラッグ及びフリック時の圧力の検出も行う。なお、タッチパネルの代わりにマウスや音声等の入力手段を用い、タッチ入力の代わりにクリック操作や音声入力を用いてもよい。
表示部106は、画像データ、テキストデータ等を表示する。選択操作判定部107は、画像データ中のオブジェクトが選択されたか否かを判定する。オブジェクト特定部108は、選択操作判定部107によって選択されたと判定されたオブジェクトを特定する。
特徴抽出部109は、オブジェクト特定部108によって特定されたオブジェクトの特徴を抽出する。オブジェクトの特徴は様々な捉え方があるが、例えば、人、物、色、形、大きさ等が挙げられる。本実施形態では、タッチされた箇所と後述の特徴データ112とからオブジェクトの特徴を抽出するが、既存の画像認識技術を用いてもよい。
画像検索部110は、特徴抽出部109により抽出されたオブジェクトの特徴に基づいて、記憶装置104に記憶された画像データ群111から画像データを検索したり、特徴の類似度に基づいて、画像データ群111を並び替える処理を実行する。また、画像検索部110は、表示させる画像データを選択し、表示部106に表示させる。
図1(b)に示すように、特徴データ112は、画像データのIDと当該画像データのオブジェクトの領域情報と当該オブジェクトの特徴情報とを対応付けたデータである。上述した通り、オブジェクトの特徴としては、例えば、人、物、色、形、大きさ等が挙げられる。なお、特徴データ122は、テキスト、リスト、XML等で構成することができる。履歴情報113は、ユーザが操作した履歴やその結果(各構成の判定結果や抽出結果等)を示す情報である。履歴参照部114は、履歴情報113を参照する。
図2は、本実施形態に係る情報処理システムのハードウェア構成の一部を示す図である。図2に示すように、本実施形態に係る情報処理システムは、CPU(Central Processing Unit)201、RAM(Random Access Memory)202、ROM(Read Only Memory)203、タッチパネル204及びLCD(Liquid Crystal Display)205がシステムバス206によって接続されている。
図1における複数オブジェクト指定部105は、図2のタッチパネル204等から構成される。また、図1における表示部106は、図2のLCD205等から構成される。選択操作判定部107、オブジェクト特定部108、特徴抽出部109、画像検索部110及び履歴参照部114は、CPU201がROM203に記憶されたプログラムやデータをRAM202に読み出し、実行することにより得られる構成である。記憶装置104は、RAM202等によって構成される。
図3は、画像データ群111の一例を示す図である。図3では、画像データ群111として、画像データ1〜画像データ10の10枚の画像データを示している。画像検索部110は、図4に示すように、表示順に基づいて画像データ群111を表示部106に表示させる。本実施形態では、図3に示す画像データ群111の表示順を、画像データ1、画像データ2、・・・、画像データ9、画像データ10、画像データ1、画像データ2、・・・と定めている。従って、図4に示すように、表示部106においては、画像データ群111のうちの5枚の画像データが表示されるが、5枚の画像データは上記表示順に従って表示されることになる。具体的には、図4(a)に示すように、表示部106の左側から、画像データ9、画像データ10、画像データ1、画像データ2、画像データ3の順序で表示される。或いは、図4(b)に示すように、表示部106の左側から、画像データ1、画像データ2、画像データ3、画像データ4、画像データ5の順序で表示される。なお、アプリケーション起動時における画像データの表示順は、日付順や名前順等、アプリケーションで定められた規則に基づいて定められる。また、図4(a)の例では、表示順が最も高い画像データ1が真中に位置するようにしているが、図4(b)に示すように、表示順の最も高い画像データ1が一番左に位置するようにしてもよい。なお、表示順の最も高い画像データの表示位置はアプリケーションによって定められる。また、アプリケーション起動時の画像データの表示順や表示順の最も高い画像データの表示位置は、ユーザがアプリケーションを通じて設定できるようにしてもよい。
また、表示部106は、複数オブジェクト指定部105を介してタッチできるようになっており、1箇所のタッチや複数箇所のタッチが可能である。また、ドラッグ(タッチしたまま指でずらす操作)、フリック(タッチした指を軽くはらう操作)も可能である。本実施形態では、画像ブラウジング時に画像データがドラッグ又はフリック(以下では、はフリックについてのみ説明する)されると、画像データの表示切り替えが指示されたと解釈し、画像データの表示切り替えが実行される。
次に、図5及び図6を参照しながら、画像ブラウジング時にフリックされたときの動作例について説明する。図5及び図6では、タッチされた箇所を黒丸501、601、ドラッグ又はフリックの方向を矢印502、602で示している。図5(a)に示すように、画像データ1がタッチされ、左方向にフリックされると、図5(b)に示すように、画像データ群111が左方向に移動するように画像データの表示切り替えが行われる。また、図6(a)に示すように、画像データ1がタッチされ、右方向にフリックされると、図6(b)に示すように、画像データ群111が右方向に移動するように画像データの表示切り替えが行われる。
このとき、画像データ中のオブジェクトが選択されない状態で画像データの表示切り替えが指示された場合、画像データの表示順を保ったまま、画像データの表示切り替えが行われる。一方、画像データ中の1つ以上のオブジェクトが選択された状態で画像データの表示切り替えが指示された場合、選択されたオブジェクトの特徴に基づいて画像データの表示順が変更されて画像データの表示切り替えが行われる。即ち、本実施形態においては、画像データ中のオブジェクトが選択されない状態で画像データの表示切り替えが指示されたのか、画像データ中のオブジェクトが選択された状態で画像データの表示切り替えが指示されたのかの判定が必要になる。そこで、本実施形態においては、上記の判定を選択操作判定部107にて実行する。
次に、図7を参照しながら、選択操作判定部107の処理について説明する。図7は、選択操作判定部107の処理を示すフローチャートである。ここでは、画像データがタッチされた時刻をTt、画像データがフリックされた時刻をTfとする。これらの時刻は複数オブジェクト指定部105によって取得される情報であり、履歴情報113として記憶装置104に記憶される。ステップS901において、選択操作判定部107は、履歴情報113である、画像データがタッチされた時刻(タッチ時刻)Ttと、画像データがフリックされた時刻(フリック時刻)Tfとを、履歴参照部114を介して記憶装置104から取得する。
ステップS702において、選択操作判定部107は、タッチ時刻Ttとフリック時刻Tfとに基づいて、オブジェクトの選択操作であるか否かを判定する。具体的には、タッチ時刻Ttからフリック時刻Tfまでの時間間隔が短い、即ち、(Tf−Tt)が所定の時間間隔(例えば、0.1秒)以下であれば、選択操作判定部107は、画像データ中のオブジェクトが選択されない状態で画像データの表示切り替えが指示されたと判定する。一方、タッチ時刻Ttからフリック時刻Tfまでの時間間隔が或る程度長い、即ち、(Tf−Tt)が所定の時間間隔(例えば、0.1秒)より長ければ、選択操作判定部107は、画像データ中のオブジェクトが選択された状態で画像データの表示切り替えが指示されたと判定する。また、複数箇所(N箇所)がタッチされた場合、これらが同時にタッチされ、且つ、上記のようにタッチ時刻Ttからフリック時刻Tfまでの時間間隔が短ければ、選択操作判定部107は、画像データ中のオブジェクトが選択されない状態で画像データの表示切り替えが指示されたと判定する。
なお、複数箇所(N箇所)が同時にタッチされたか否かについては、全てのタッチ時刻の差がほとんどないか否かで判定される。次に、図8を参照しながら、複数箇所(N箇所)が同時にタッチされたか否かの判定処理について説明する。図8は、複数箇所(N箇所)が同時にタッチされたか否かの判定処理を示すフローチャートである。ステップS801において、選択操作判定部107は、それぞれのタッチ時刻をTt1、Tt2、Tt3、・・・、TtNとして設定する。ステップS802において、選択操作判定部107は、変数nに1を代入する。ステップS803において、選択操作判定部107は、変数mにn+1を代入する。ステップS804において、選択操作判定部107は、N<n又はN<mの条件を満たすか否かを判定する。N<n又はN<mの条件を満たす場合、処理はステップS808に移行する。一方、N<n及びN<mの何れの条件も満たさない場合、処理はステップS805に移行する。ステップS808において、選択操作判定部107は、複数箇所が同時にタッチされたと判定する。
ステップS805において、選択操作判定部107は、時刻Ttmと時刻Ttnとの差が十分小さいか否か、即ち、時刻Ttmと時刻Ttnとの差の絶対値が所定の値(例えば、0.01秒)より小さいか否かを判定する。時刻Ttmと時刻Ttnとの差が十分小さい場合、処理はステップS806に移行する。一方、時刻Ttmと時刻Ttnとの差が十分小さくない場合、処理はステップS807に移行する。ステップS806において、選択操作判定部107は、nを1加算する。そして、処理はステップS803に戻る。ステップS807において、選択操作判定部107は、複数箇所が同時にタッチされていないと判定する。
以上のように、複数箇所が同時にタッチされたか否かを判定し、同時にタッチされたと判定された場合、時刻Ttm及び時刻Ttnのうちの何れか、又は、時刻Ttmと時刻Ttnとの平均値をTtとする。また、画像データがフリックされた時刻をTfとすると、(Tf−Tt)が所定の時間間隔(例えば、0.1秒)以下であれば、選択操作判定部107は、画像データ中のオブジェクトが選択されない状態で画像データの表示切り替えが指示されたと判定する。一方、(Tf−Tt)が所定の時間間隔(例えば、0.1秒)より長ければ、選択操作判定部107は、画像データ中のオブジェクトが選択された状態で画像データの表示切り替えが指示されたと判定する。
以上により、ユーザがオブジェクトを選択しない場合はタッチ時刻からフリック時刻までの時間間隔が短いという自然な操作に基づく判定が可能になる。
次に、図9〜図12を参照しながら、画像ブラウジングを行う際の処理について説明する。図9は、画像ブラウジングの際の処理を示すフローチャートである。図10〜図12は、画像データ群111の表示状態等を示す図である。即ち、図10(a)、図11(a)、図12(a)は何れも、三角や丸の特徴をもつオブジェクトを含む画像データ群111を示しており、図10(b)、図11(b)、図12(b)に表示部106における画像データの表示状態を示している。図10(c)は、画像データの分割例を示している。図10(c)の例では、画像データを縦方向に2分割、横方向に2分割し、画像データに対してA、B、C、Dの4つの領域を定義している。図10(d)は、このように画像データに対して4つの領域を定義した場合の特徴データ112の例を示している。「ID」の欄には、画像データのIDが定義され、「オブジェクトの領域情報」の欄には、オブジェクトが領域A〜Dのどの領域に属しているかが定義され、「特徴情報」の欄には、オブジェクトの特徴が定義されている。図11(b)、図12(b)の黒丸1101、1201は、ユーザにタッチされた箇所を示している。図11(c)、図12(c)は、タッチされた箇所に対応するオブジェクトの特徴情報を示している。
ステップS901において、画像検索部110は、表示順に基づいて画像データ群111を表示部106に表示させる。上記表示順は、日付順や名前順等、アプリケーションで定められた規則に基づいて定められる。また、この最初の順序は、ユーザがアプリケーションを通じて設定できるようにしてもよい。図10(a)の例では、画像データ群111は日付順に並んでおり、図10(b)に示すように、表示部106の左側から、最後の2枚の画像データ(画像データ9、画像データ10)と最初の3枚の画像データ(画像データ1、画像データ2、画像データ3)とが表示されている。
ステップS902において、選択操作判定部107は、複数オブジェクト指定部105から1つ以上のタッチ入力が通知されたか否かを判定する。1つ以上のタッチ入力が通知された場合、処理はステップS903に移行する。一方、1つ以上のタッチ入力が通知されなかった場合、複数オブジェクト指定部105からタッチ入力が通知されるまで待機する。
ステップS903において、オブジェクト特定部107は、選択操作判定部107によりオブジェクトが選択されたと判定された場合、当該オブジェクトを特定する。そして特徴抽出部109は、そのオブジェクトの特徴を抽出する。具体的には、オブジェクト特定部107は、タッチされた箇所が画像データ中のどの位置にあるかを算出し、更に特徴データ112を参照して、タッチされた箇所が画像データ中のどのオブジェクトに属するかを判定する。特徴データ112にはオブジェクトの領域情報が含まれているため、画像データ中における任意の位置についてどのオブジェクトが属しているかを容易に判定することができる。また、複数の箇所がタッチされていて、その位置がそれぞれ異なるオブジェクトに属する場合、複数のオブジェクトが選択されたことになる。また、複数の箇所がタッチされていて、その位置が何れも同一のオブジェクトに属する場合、1つのオブジェクトが選択されたことになる。選択されたオブジェクトが特定されると、特徴抽出部109は、選択されたオブジェクトの特徴を抽出する。特徴データ112には、オブジェクトの領域情報とオブジェクトの特徴情報とが対応付けられているので、選択されたオブジェクトの特徴を抽出することができる。複数のオブジェクトが選択された場合、全てのオブジェクトに関してそれぞれ特徴が抽出される。なお、特徴データ112が与えられていない場合には、既存の画像認識技術を利用することにより、画像データの任意の位置におけるオブジェクト(人や物等)及びその特徴(名前、色、形等)を認識して取得することができる。図11の例では、図11(c)に示すように丸という特徴が抽出される。また、図12の例では、図12(c)に示すように三角という特徴が抽出される。
また、本実施形態においては、特定したオブジェクトの画像データ上の領域情報を取得することができるため、その領域に色を付ける、オブジェクトの縁取りをする等、画像データ上のオブジェクトを目立たせるようにしてもよい。またオブジェクトがもつ特徴(文字列)を画像データ上に重畳して表示させてもよい。
ステップS904において、画像検索部110は、オブジェクト特定部108によってオブジェクトが特定され、且つ、特徴抽出部109によって特徴が抽出されたか否かを判定する。タッチされた位置が何れのオブジェクトにも属さず、これにより、オブジェクトが特定されず、特徴が抽出されなかった場合、処理はステップS906に移行する。一方、タッチされた位置が何れかのオブジェクトに属し、これにより、オブジェクトが特定され、特徴が抽出された場合、処理はステップS905に移行する。
ステップS905において、画像検索部110は、画像データ群111について特徴の類似度を算出し、その類似度に基づいて画像データ群111を検索し、検索結果に応じて画像データの表示順を変更する。ここでは、画像データ群111を類似度の高い順に検索し、並び替える。実際に画像データ群111を並び替えてもよいし、表示順を示す値を更新してもよい。特徴の類似度は、画像データにその特徴をもつオブジェクトがどのくらい含まれているかを表す値である。例えば、当該特徴をもつオブジェクトの数やオブジェクトの面積の他、認識尤度等を利用してもよい。図11の例では、画像検索部110は、図10(d)に示す特徴データ112を参照することにより、丸という特徴をもつオブジェクトを含む画像データ1、4、8の類似度を高くして、図11(a)に示すように画像データを並び変えている。図11(a)の例では、丸という特徴をもつオブジェクトを含む画像データ内での優先度、及び、丸という特徴をもつオブジェクトを含まない画像データ内での優先度は、並び替える前の順序を保っているが、これに限らない。例えば同じ特徴をもつオブジェクトを含む画像データ内において日付順に並べるようにしてもよい。
また、特徴が複数ある場合、その複数の特徴のAND(論理積)に基づく類似度に応じて画像データ群111を並べ替えてもよい。さらに、複数の特徴のANDではなくOR(論理和)に基づく類似度に応じて画像データ群111を並べ替えるようにしてもよい。特徴が複数の場合にANDに基づくかORに基づくかはユーザがアプリケーションを通じて設定できるようにしてもよい。
ステップS906において、選択操作判定部107は、タッチ入力に変更があったか否かを判定する。即ち、選択操作判定部107は、上述したステップS902で検知したタッチ入力の状態と比較し、タッチ入力の状態が異なる場合、処理はステップS907に移行する。一方、上述したステップS902で検知されたタッチ入力の状態と同一の場合、処理はステップS908に移行する。なお、タッチ入力の状態が異なるとは、例えば「タッチ入力が1つから2つになった」、「タッチ入力が2つから1つになった」等の入力数の増減のほか、タッチ位置の変更等が挙げられる。ここでタッチ位置の変更とは、ドラッグやフリックとは異なり、ある位置のタッチが解除され、再び別の位置がタッチされることを意味する。
ステップS907において、画像検索部110は、前段のステップS905にて画像データの表示順を変更した場合、画像データの表示順を元に戻す。一方、前段のステップS905において画像データの表示順を変更していない場合、画像検索部110は何も処理を行わない。そして、処理はステップS902に戻る。
ステップS908において、画像検索部110は、画像データの表示切り替えの指示があったか否かを判定する。上述した通り、本実施形態では、画像ブラウジング時に画像データ上でフリックされると、画像データの表示切り替えの指示があったと解釈する。このため、複数オブジェクト指定部105からフリックが行われたことが通知された場合、処理はステップS909に移行する。一方、フリックが行われたことが通知されなかった場合、処理はステップS906に移行する。ステップS909において、画像検索部110は、表示順に基づいて画像データ群111を表示部106に表示させる。
なお、アプリケーションから終了の指示があった場合、何れのステップにおいても割り込み処理によりアプリケーションを終了する。また、選択操作判定部107の処理は上述した処理に限らない。例えば以下のような処理が挙げられる。以下に説明する選択操作判定部107の処理は、図9の処理と並行に行われる。
先ず、選択操作判定部107の第1の変形例について説明する。上述したようにタッチ時刻からフリック時刻までの時間間隔を用いた場合、その時間間隔が短いか否かはユーザによって異なる場合がある。第1の変形例では、図7のステップS701において、選択操作判定部107は、履歴情報113である、今回のタッチ時刻及びフリック時刻と、過去のタッチ時刻からフリック時刻までの時間間隔とを参照する。ステップS702において、選択操作判定部107は、今回のタッチ時刻からフリック時刻までの時間間隔を算出し、当該時間間隔が過去のタッチ時刻からフリック時刻までの時間間隔と同じ、又は、当該時間間隔と過去のタッチ時刻からフリック時刻までの時間間隔との差が所定の値(例えば、0.1秒)以下であれば、オブジェクトが選択されたと判定する。一方、上記の条件を満たさない場合、選択操作判定部107は、オブジェクトは選択されていないと判定する。さらに、選択操作判定部107は、その判定結果を今回のタッチ時刻からフリック時刻までの時間間隔と対応付けて履歴情報113として記憶装置104に記憶させておき、次回以降の判定に利用する。また、判定の際に用いられる過去のタッチ時刻からフリック時刻までの時間間隔は、例えば数分以内の履歴情報113に限ってもよい。これにより、タッチ時刻からフリック時刻までの時間間隔を個々のユーザ毎にカスタマイズすることができる。
次に、選択操作判定部107の第2の変形例について説明する。ユーザがオブジェクトを選択するのにはある程度時間がかかる。このため、一つ前のフリック時刻から今回のフリック時刻までの時間間隔が十分短い場合、オブジェクトを選択していないとみなすことができる。本変形例では、図7のステップS701において、選択操作判定部107は、履歴情報113である、今回のフリック時刻と一つ前のフリック時刻とを参照する。ステップS702において、選択操作判定部107は、今回のフリック時刻と一つ前のフリック時刻との時間間隔を算出し、その時間間隔が所定の値(例えば、0.5秒)以下である場合、オブジェクトは選択されていないと判定する。一方、当該時間間隔が所定の値(例えば、0.5秒)より長ければ、選択操作判定部107は、オブジェクトが選択されたと判定する。これにより、ユーザはオブジェクトを選択しない場合には早く画像データを切り替えるという自然な操作に基づく判定が可能になる。
次に、選択操作判定部107の第3の変形例について説明する。ユーザが画像データを閲覧するときはある一定の時間間隔で画像データの表示を切り替えることが多い。一方、何かを注視したり、特定の操作をしたりする場合に時間間隔が一定でなくなることがある。オブジェクトの選択もこの中の1つである。このような事情を考慮し、本変形例では、フリック時刻の時間間隔が一定でない場合にオブジェクトが選択されたと判定する。即ち、ステップS701において、選択操作判定部107は、履歴情報113である、今回のフリック時刻と一つ前のフリック時刻とを参照する。ステップS702において、選択操作判定部107は、今回のフリック時刻と一つ前のフリック時刻との時間間隔を算出する。当該時間間隔が過去のフリック時刻の時間間隔の平均値と同じ、又は、当該時間間隔と過去のフリック時刻の時間間隔の平均値との差が所定の値(例えば、0.5秒)以下である場合、選択操作判定部107は、オブジェクトは選択されていないと判定する。一方、当該時間間隔と過去のフリック時刻の時間間隔の平均値との差が所定の値(例えば、0.5秒)より長い場合、選択操作判定部107は、オブジェクトが選択されたと判定する。また、判定の際に用いられる過去のフリック時刻の時間間隔の平均値は、例えば数分以内の下記のフリック時刻の時間間隔の平均値に限ってもよい。これにより、ユーザがオブジェクトを選択するときに画像データの表示切り替えが一定の時間間隔でなくなるという自然な操作に基づく判定が可能になる。
次に、選択操作判定部107の第4の変形例について説明する。上記の第3の変形例の場合、オブジェクトを選択した後の1回目のフリック時の判定が難しい。そこで、本変形例では、過去のタッチ時刻からフリック時刻までの時間間隔と選択操作判定部107の判定結果とを対応付けて履歴情報113として記憶装置104に記憶させておく。そして、ステップS701において、選択操作判定部107は、履歴情報113である、過去のタッチ時刻からフリック時刻までの時間間隔と選択操作判定部107の判定結果とを参照する。ステップS702において、選択操作判定部107は、今回のタッチ時刻からフリック時刻までの時間間隔が、オブジェクトが選択されたと判定された場合における過去のタッチ時刻からフリック時刻までの時間間隔の平均値と同じ、又は、今回のタッチ時刻からフリック時刻までの時間間隔と上記過去のタッチ時刻からフリック時刻までの時間間隔の平均値との差が所定の値(例えば0.1秒)以下であれば、オブジェクトが選択されたと判定する。一方、上記の条件を満たさない場合、選択操作判定部107は、オブジェクトが選択されていないと判定する。また、判定の際に用いられる過去のフリック時刻の時間間隔は、例えば数分以内の履歴情報113に限ってもよい。これにより、ユーザがオブジェクトを選択するときに画像データの表示切り替えが一定間隔でなくなるという自然な操作に基づく判定が可能になる。
次に、選択操作判定部107の第5の変形例について説明する。一般的に、ユーザがタッチして何かを選択する場合、特にタッチで複数選択する場合は、単にフリックするよりも圧力がかかる。そこで、本変形例における選択操作判定部107は、タッチ又はフリックの圧力が所定の値以上である場合、オブジェクトが選択されたと判定し、当該圧力が所定の値未満である場合、オブジェクトは選択されていないと判定する。これにより、オブジェクトを選択するときに圧力がかかるというユーザの自然な操作に基づく判別が可能になる。
次に、選択操作判定部107の第6の変形例について説明する。第5の変形例のように圧力を用いた場合、その圧力が大きいかどうかはユーザによって異なる場合がある。そこで、本変形例では、過去のタッチ又はフリックの圧力と選択操作判定部107の判定結果とを対応付けて履歴情報113として記憶装置104に記憶させておく。そして、ステップS701において、選択操作判定部107は、履歴情報113である、今回のタッチ又はフリックの圧力と過去のタッチ又はフリックの圧力とを参照する。ステップS702において、選択操作判定部107は、今回のタッチ又はフリックの圧力が、オブジェクトが選択されたと判定された場合における過去のタッチ又はフリックの圧力の平均値と同じ、又は、今回のタッチ又はフリックの圧力と上記過去のタッチ又はフリックの圧力の平均値との差が所定の値以下であれば、オブジェクトが選択されたと判定する。一方、上記の条件を満たさない場合、選択操作判定部107は、オブジェクトは選択されていないと判定する。なお、今回の判定結果とタッチ又はフリックの圧力とは履歴情報113として記憶され、次回以降の判定の際に使用される。また、判定の際に用いられる過去のタッチ又はフリックの圧力は、例えば数分以内の履歴情報113に限ってもよい。これにより、圧力の大きさを個々のユーザ毎にカスタマイズすることができる。
次に、選択操作判定部107の第7の変形例について説明する。ユーザがオブジェクトを選択せずに画像データを閲覧するときは、連続してタッチされる箇所の総数(例えばタッチする指の数)は一定であることが多い。一方、オブジェクトを指定する場合は複数指定することがあるため、タッチ又はフリックされる箇所の総数は変化することがある。このような事情を考慮し、本変形例では、ステップS901において、選択操作判定部107は、履歴情報113である、過去のタッチ又はフリックされた箇所の総数を参照する。ステップS902において、選択操作判定部107は、今回タッチ又はフリックされた箇所の総数が、直前の幾つかの入力(例えば、直前の5入力)においてタッチ又はフリックされた箇所の総数と同じである場合、オブジェクトは選択されていないと判定する。一方、今回タッチ又はフリックされた箇所の総数が、直前の幾つかの入力(例えば、直前の5入力)においてタッチ又はフリックされた箇所の総数と異なる場合、選択操作判定部107は、オブジェクトが選択されたと判定する。この場合、上述した図9のステップS902の時点で画像データ中のオブジェクトが選択されない状態で画像データの表示切り替えが指示されたと判定することができるので、ステップS903に移行する必要がない。これにより、ユーザがオブジェクトを選択しないときはタッチする箇所の総数が変化しないというユーザの自然な操作に基づく判定が可能になる。
次に、選択操作判定部107の第8の変形例について説明する。ユーザがオブジェクトを選択せずに画像データを閲覧する場合、ある特定の領域を連続してタッチ又はフリックして画像データを切り替えられることが多い。一方、オブジェクトを選択する場合、ある特定の領域を連続してタッチすることは少ない。この場合、ステップS701において、選択操作判定部107は、履歴情報113である、過去のタッチ又はフリックされた箇所の情報(例えば座標情報)を参照する。ステップS702において、選択操作判定部107は、今回タッチ又はフリックされた箇所が過去にタッチ又はフリックされた箇所から所定の範囲内にある場合、オブジェクトは選択されていないと判定する。一方、上記の条件を満たさない場合、選択操作判定部107は、オブジェクトが選択されたと判定する。なお、判定の際に用いられる過去にタッチ又はフリックされた箇所の情報は、例えば数分以内の履歴情報113に限ってもよい。また、上記所定の範囲内とは、個々の画像データ上の座標ではなく、画像データが表示されている画面全体(表示部106)又はタッチパネル全体の中の座標を意味する。これにより、ユーザがオブジェクトを選択しないときはある特定の領域を連続してタッチ及びフリックするというユーザの自然な操作に基づく判定が可能になる。
次に、選択操作判定部107の第9の変形例について説明する。ユーザがオブジェクトを選択せずに画像データを閲覧するときは指の配置パターンが自然である。一方、オブジェクトの配置は指の自然な配置とは一致しないことが多いため、オブジェクトを選択する場合の指の配置は不自然なことが多い。このような事情を考慮し、タッチされた箇所の配置パターンと典型的な指の配置パターンとの類似度より、タッチされた箇所の配置パターンとオブジェクトの配置パターンとの類似度の方が高い場合、選択操作判定部107はオブジェクトが選択されたと判定する。
以下、選択操作判定部107の第9の変形例について具体的に説明する。図13に示すような、典型的な右手及び左手の1本〜5本の指の配置パターンを予め記憶装置104に記憶しておく。指の配置パターンは画像データではなく配置を示す数値でもよい。以下、図14を参照しながら、選択操作判定部107の第9の変形例における処理について説明する。図14は、選択操作判定部107の第9の変形例における処理を示すフローチャートである。
ステップS1401において、選択操作判定部107は、複数オブジェクト指定部105から、タッチされた箇所の総数Nとタッチされた箇所の配置パターンとを取得する。ステップS1402において、選択操作判定部107は、画像データ上のオブジェクトの総数Mとそのオブジェクトの配置パターンとを取得する。もし、図15に示すように、タッチされている画像データが複数に渡る場合は、複数の画像データ(画像データ10、画像データ1)に含まれるオブジェクトの総数となる。なお、図15の1501、1502の黒丸はタッチされている箇所を示している。また、オブジェクトの配置パターンは上記複数の画像データの配置情報を考慮する必要がある。画像データ10と画像データ1とを例にとると、画像データ10と画像データ1との配置情報(図15の例では、画像データ10が左に、画像データ1が右に配置されている)に応じてオブジェクトの配置パターンが変わる。また、オブジェクトの総数Mを取得する対象範囲は画像データ全体でもよいが、全ての指が含まれる最小の四角形を対象範囲としてもよい。
ステップS1403において、選択操作判定部107は、タッチされた箇所の総数Nとオブジェクトの総数Mとを比較する。オブジェクトの総数Mよりタッチされた箇所の総数Nの方が大きい場合、処理はステップS1404に移行する。一方、オブジェクトの総数Mがタッチされた箇所の総数N以上である場合、処理はステップS1407に移行する。
ステップS1404において、選択操作判定部107は、タッチされた箇所の配置パターンとオブジェクトの配置パターンとの類似度と、タッチされた箇所の配置パターンと典型的な指の配置パターンとの類似度とをそれぞれ計算する。なお、パターンの類似度は、既存の技術を用いることにより容易に算出することができる。
ステップS1405において、選択操作判定部107は、ステップS1404にて算出した2つの類似度を比較する。タッチされた箇所の配置パターンとオブジェクトの配置パターンとの類似度より、タッチされた箇所の配置パターンと典型的な指の配置パターンとの類似度の方が高い場合、処理はステップS1407に移行する。一方、タッチされた箇所の配置パターンと典型的な指配置パターンとの類似度の方より、タッチされた箇所の配置パターンとオブジェクトの配置パターンとの類似度の方が高い場合、処理はステップS1406に移行する。ステップS1407において、選択操作判定部107は、オブジェクトが選択されない状態で画像データの表示切り替えが指示されたと判定する。ステップS1406において、選択操作判定部107は、オブジェクトが選択された状態で画像データの表示切り替えが指示されたと判定する。
なお、上述した第1〜第9の変形例の夫々を適用してもよいし、第1〜第9の変形例のうちの任意の複数の変形例を組み合わせて適用してもよい。
以上のように、本実施形態によれば、ユーザが優先的に見たいオブジェクトをタッチするという直観的な操作で他の画像データより優先的に当該オブジェクトを含む画像データを検索し、表示させることができる。また、オブジェクトが選択されたか否かについてユーザの自然な操作に基づく判定が可能になるため、ユーザの負担を増やすことがない。
次に、本発明の第2の実施形態について説明する。第1の実施形態では、同時に複数の特徴を指定する際に、複数の特徴をもつオブジェクトを同時に選択する方法を示した。これに対し、第2の実施形態では、同時に複数の特徴を指定する場合に、オブジェクトを複数回に分けて選択する方法について説明する。なお、第2の実施形態に係る情報処理システムの構成は図1に示した構成と同様であるため、以下の説明においても、図1の符合を用いるものとする。
第2の実施形態によれば、例えば、図11の1101に示すように、丸という特徴をもつオブジェクトを指定して画像データの表示を切り替えた後に、続いて図12の1201に示すように、三角の特徴をもつオブジェクトを指定すると、丸と三角という複数の特徴をもつ画像データを優先させる動作が可能になる。
次に、図16を参照しながら、画像ブラウジングを行う際の処理について説明する。図16は、画像ブラウジングの際の処理を示すフローチャートである。なお、図16では、図9と共通の処理については図9と同じ符号を付与している。以下では、図9と異なる処理である、ステップS1601、S1602、S1603について説明する。
ステップS1601においては、画像検索部110は、基本的には上記ステップS905と同様の処理を行う。但し、後述のステップS1603にてクリアされるまで過去に指定された特徴を記憶装置104に保持しておき、過去に指定された特徴に対し、新たに指定された特徴を追加する点が異なる。図11に示すように、丸という特徴をもつオブジェクトを指定して画像データの表示を切り替えた後に、続いて三角の特徴をもつオブジェクトを指定すると、記憶装置104に保持している特徴は丸と三角になる。複数選択されたときにAND(論理積)をとるか、OR(論理和)をとるか等は第1の実施形態と同様である。
ステップS1602において、入力装置103は、ユーザがアプリケーションを通じて特徴情報をクリアするという指示を出したか否かを判定する。例えば、表示部106にクリアボタンを配置し、入力装置101はそのボタンが押下されたか否かを判定する。特徴情報をクリアするという指示が出された場合、処理はステップS1603に移行する。一方、特徴情報をクリアするという指示が出されていない場合、処理はステップS902に戻る。ステップS1603において、制御装置103は、特徴情報をクリアする。具体的には、制御装置103は記憶装置104に保持されている特徴情報を削除する。なお、ユーザが一度に選択するオブジェクトは1つでもよいし、複数でもよい。
以上説明したように、本実施形態によれば、ユーザが優先的に見たいオブジェクトを順番にタッチするという直観的な操作で他の画像データより優先的に表示させることができる。また、第1の実施形態と同様に、ユーザが優先的に見たいオブジェクトをタッチするという直観的な操作で他の画像データより優先的に表示させることができる。また、オブジェクトが選択されたかどうかについてユーザの自然な操作に基づく判別が可能になるため、ユーザの負担を増やすことがない。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
101:入力装置、102:表示装置、103:制御装置、104:記憶装置、105:複数オブジェクト指定部、106:表示部、107:選択操作判定部、108:オブジェクト特定部、109:特徴抽出部、110:画像検索部、111:画像データ群、112:特徴データ、113:履歴情報、114:履歴参照部

Claims (11)

  1. ユーザによって選択されたオブジェクトを特定する特定手段と、
    前記特定手段により特定された前記オブジェクトの特徴を抽出する抽出手段と、
    前記抽出手段により抽出された前記特徴に基づいて、前記オブジェクトを含む画像データと他の複数の画像データとの類似度を算出する算出手段と、
    前記算出手段により算出された前記類似度に従って、前記他の複数の画像データを検索する検索手段とを有することを特徴とする情報処理装置。
  2. 前記検索手段による検索結果に基づいて、前記他の複数の画像データの表示順を決定する制御手段を更に有することを特徴とする請求項1に記載の情報処理装置。
  3. ユーザによって前記オブジェクトが選択されたか否かを判定する判定手段を更に有し、
    前記特定手段は、前記判定手段により前記オブジェクトが選択されたと判定された場合、前記オブジェクトを特定することを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記判定手段は、タッチパネルに対してタッチされた時点からフリックされた時点までの時間間隔に基づいて、前記オブジェクトが選択されたか否かを判定することを特徴とする請求項3に記載の情報処理装置。
  5. 前記判定手段は、タッチパネルに対するフリック操作の時間間隔に基づいて、前記オブジェクトが選択されたか否かを判定することを特徴とする請求項3に記載の情報処理装置。
  6. 前記判定手段は、タッチパネルに対するタッチ操作又はフリック操作の圧力に基づいて、前記オブジェクトが選択されたか否かを判定することを特徴とする請求項3に記載の情報処理装置。
  7. 前記判定手段は、タッチパネルに対してタッチ又はフリックされた箇所の数に基づいて、前記オブジェクトが選択されたか否かを判定することを特徴とする請求項3に記載の情報処理装置。
  8. 前記判定手段は、タッチパネルに対してタッチ又はフリックされた箇所の位置に基づいて、前記オブジェクトが選択されたか否かを判定することを特徴とする請求項3に記載の情報処理装置。
  9. 前記判定手段は、タッチパネルに対してタッチ又はフリックされた箇所の配置パターンに基づいて、前記オブジェクトが選択されたか否かを判定することを特徴とする請求項3に記載の情報処理装置。
  10. 情報処理装置によって実行される情報処理方法であって、
    ユーザによって選択されたオブジェクトを特定する特定ステップと、
    前記特定ステップにより特定された前記オブジェクトの特徴を抽出する抽出ステップと、
    前記抽出ステップにより抽出された前記特徴に基づいて、前記オブジェクトを含む画像データと他の複数の画像データとの類似度を算出する算出ステップと、
    前記算出ステップにより算出された前記類似度に従って、前記他の複数の画像データを検索する検索ステップとを有することを特徴とする情報処理方法。
  11. ユーザによって選択されたオブジェクトを特定する特定ステップと、
    前記特定ステップにより特定された前記オブジェクトの特徴を抽出する抽出ステップと、
    前記抽出ステップにより抽出された前記特徴に基づいて、前記オブジェクトを含む画像データと他の複数の画像データとの類似度を算出する算出ステップと、
    前記算出ステップにより算出された前記類似度に従って、前記他の複数の画像データを検索する検索ステップとをコンピュータに実行させるためのプログラム。
JP2011067525A 2011-03-25 2011-03-25 情報処理装置、情報処理方法及びプログラム Active JP5762075B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011067525A JP5762075B2 (ja) 2011-03-25 2011-03-25 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011067525A JP5762075B2 (ja) 2011-03-25 2011-03-25 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2012203645A true JP2012203645A (ja) 2012-10-22
JP5762075B2 JP5762075B2 (ja) 2015-08-12

Family

ID=47184593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011067525A Active JP5762075B2 (ja) 2011-03-25 2011-03-25 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5762075B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017504861A (ja) * 2013-11-12 2017-02-09 ピンタレスト,インコーポレイテッド 画像ベース検索
CN114076772A (zh) * 2020-08-19 2022-02-22 万润科技股份有限公司 电路板检查设备及其图层编修教导方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10154149A (ja) * 1996-11-25 1998-06-09 Nippon Telegr & Teleph Corp <Ntt> 類似オブジェクト検索方法および装置
JP2000207420A (ja) * 1998-11-12 2000-07-28 Nippon Telegr & Teleph Corp <Ntt> 類似画像検索システム,類似画像検索方法および類似画像検索プログラムを記録した記録媒体
JP2006039745A (ja) * 2004-07-23 2006-02-09 Denso Corp タッチパネル式入力装置
US20070286531A1 (en) * 2006-06-08 2007-12-13 Hsin Chia Fu Object-based image search system and method
US20080069480A1 (en) * 2006-09-14 2008-03-20 Parham Aarabi Method, system and computer program for interactive spatial link-based image searching, sorting and/or displaying
JP2010113445A (ja) * 2008-11-05 2010-05-20 Nec Corp タッチパネルおよび操作検出方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10154149A (ja) * 1996-11-25 1998-06-09 Nippon Telegr & Teleph Corp <Ntt> 類似オブジェクト検索方法および装置
JP2000207420A (ja) * 1998-11-12 2000-07-28 Nippon Telegr & Teleph Corp <Ntt> 類似画像検索システム,類似画像検索方法および類似画像検索プログラムを記録した記録媒体
JP2006039745A (ja) * 2004-07-23 2006-02-09 Denso Corp タッチパネル式入力装置
US20070286531A1 (en) * 2006-06-08 2007-12-13 Hsin Chia Fu Object-based image search system and method
US20080069480A1 (en) * 2006-09-14 2008-03-20 Parham Aarabi Method, system and computer program for interactive spatial link-based image searching, sorting and/or displaying
JP2010113445A (ja) * 2008-11-05 2010-05-20 Nec Corp タッチパネルおよび操作検出方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017504861A (ja) * 2013-11-12 2017-02-09 ピンタレスト,インコーポレイテッド 画像ベース検索
JP2018152094A (ja) * 2013-11-12 2018-09-27 ピンタレスト,インコーポレイテッド 画像ベース検索
US10515110B2 (en) 2013-11-12 2019-12-24 Pinterest, Inc. Image based search
US11436272B2 (en) 2013-11-12 2022-09-06 Pinterest, Inc. Object based image based search
CN114076772A (zh) * 2020-08-19 2022-02-22 万润科技股份有限公司 电路板检查设备及其图层编修教导方法

Also Published As

Publication number Publication date
JP5762075B2 (ja) 2015-08-12

Similar Documents

Publication Publication Date Title
JP5978660B2 (ja) 情報処理装置及び情報処理方法
CN106648434B (zh) 通过拖拽手势控制应用界面的方法和装置
TWI536248B (zh) 桌面圖示的分類顯示方法與系統
US9594800B2 (en) Image information processing apparatus, image information processing method, and non-transitory computer readable medium
JP2007122496A (ja) 表示情報選択装置及び方法、プログラム並びに記録媒体
US10120540B2 (en) Visual feedback for user interface navigation on television system
US20180018084A1 (en) Display device, display method and computer-readable recording medium
US10061485B2 (en) Information processing system that organizes and clearly presents mass data to user, information processing methods, and recording medium
JP2015088180A (ja) 電子機器、その制御方法、及び制御プログラム
CN106383636A (zh) 一种索引信息的显示方法及装置
CN112286614A (zh) 用户界面的显示方法和装置、电子设备及存储介质
CN104571811B (zh) 一种信息处理方法及电子设备
JP2017142823A (ja) 情報処理装置、情報処理方法、およびプログラム
JP5762075B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5766763B2 (ja) スクリーン内のカーソルをクリック可能なオブジェクトに移動させる方法及び該方法を実現するために用いるコンピュータシステムとコンピュータプログラム
CN112596643A (zh) 应用图标的管理方法及装置
WO2017045277A1 (zh) 搜索方法、装置、设备及非易失性计算机存储介质
JP2014182519A (ja) 情報処理プログラム、情報処理装置および情報処理方法
CN105549837A (zh) 基于触屏设备的通讯录中联系人项的展示方法及装置
JP5911440B2 (ja) 電子機器
CN114578956A (zh) 设备控制方法、装置、虚拟穿戴设备以及存储介质
WO2021005415A1 (en) Method for operating an electronic device in order to browse through photos
WO2014208673A1 (ja) 画像表示方法およびシステム
JP5822009B2 (ja) 検索システム、検索システムの制御方法、およびそのプログラム
JP7291878B2 (ja) 表示制御方法、表示制御装置、表示制御プログラムおよび表示制御システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150609

R151 Written notification of patent or utility model registration

Ref document number: 5762075

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151