JPWO2016006090A1 - 電子機器、方法及びプログラム - Google Patents

電子機器、方法及びプログラム Download PDF

Info

Publication number
JPWO2016006090A1
JPWO2016006090A1 JP2016532378A JP2016532378A JPWO2016006090A1 JP WO2016006090 A1 JPWO2016006090 A1 JP WO2016006090A1 JP 2016532378 A JP2016532378 A JP 2016532378A JP 2016532378 A JP2016532378 A JP 2016532378A JP WO2016006090 A1 JPWO2016006090 A1 JP WO2016006090A1
Authority
JP
Japan
Prior art keywords
group
image
images
classification
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016532378A
Other languages
English (en)
Inventor
大介 平川
大介 平川
勇宇次 入本
勇宇次 入本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JPWO2016006090A1 publication Critical patent/JPWO2016006090A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

一つの実施の形態に係る電子機器は、プロセッサと、表示制御部と、受け付け部と、を備える。前記プロセッサは、各画像が有する部分の特徴が第1分類基準に対応する複数の第1画像を第1グループに分類し、各画像が有する部分の特徴が前記第1分類基準とは異なる第2分類基準に対応する複数の第2画像を第2グループに分類する。前記表示制御部は、前記第1グループに含まれる複数の第1画像と、前記第2グループに含まれる複数の第2画像とをディスプレイ上に表示する。前記受け付け部は、前記第2グループに含まれる1以上の第2画像を、前記第1グループへ変更するための第1操作を受け付ける。前記プロセッサは、前記第2グループから前記第1グループに変更となった1以上の第2画像を用いて、前記第1分類基準を少なくとも変更する。

Description

本発明の実施形態は、電子機器、方法及びプログラムに関する。
画像認識により、例えばデジタルカメラによって撮影された写真(画像ファイル)を、当該写真に写る人物毎に自動分類するソフトウェアが知られる。このような自動分類による写真の分類結果は、間違っている場合がある。自動分類による分類結果をより正確にするために、ユーザが自動分類に係るパラメータを変更可能である場合がある。
特開2011−221791号公報
自動分類に係るパラメータの変更が分類結果にどう影響するかは、再び自動分類を実行するまでユーザには分かりにくい。
一つの実施の形態に係る電子機器は、プロセッサと、表示制御部と、受け付け部と、を備える。前記プロセッサは、各画像が有する部分の特徴が第1分類基準に対応する複数の第1画像を第1グループに分類し、各画像が有する部分の特徴が前記第1分類基準とは異なる第2分類基準に対応する複数の第2画像を第2グループに分類する。前記表示制御部は、前記第1グループに含まれる複数の第1画像と、前記第2グループに含まれる複数の第2画像とをディスプレイ上に表示する。前記受け付け部は、前記第2グループに含まれる1以上の第2画像を、前記第1グループへ変更するための第1操作を受け付ける。前記プロセッサは、前記第2グループから前記第1グループに変更となった1以上の第2画像を用いて、前記第1分類基準を少なくとも変更する。
図1は、一つの実施の形態に係る電子機器の外観を示す斜視図である。 図2は、一つの実施形態のタブレットのシステム構成の例を示す図である。 図3は、一つの実施形態のタブレットによって実行される画像管理プログラムの機能構成の例を示す図である。 図4は、一つの実施形態のLCDに表示される画面を示す図である。 図5は、一つの実施形態のタブレットにおける画像クラスタリング処理の手順の一部を例示するフローチャートである。 図6は、一つの実施形態の画像の再分類がされた後の、LCDに表示される画面を示す図である。 図7は、一つの実施形態の画像の再分類がされた後の、LCDに表示される画面の他の例を示す図である。
以下に、一つの実施の形態について、図1乃至図7を参照して説明する。なお、実施形態に係る構成要素や、当該要素の説明について、複数の表現を併記することがある。当該構成要素及び説明について、記載されていない他の表現がされることは妨げられない。さらに、複数の表現が記載されない構成要素及び説明について、他の表現がされることは妨げられない。
図1は、一つの実施の形態に係る電子機器の外観を示す斜視図である。この電子機器は、タブレットコンピュータ、ノートブック型パーソナルコンピュータ、スマートフォン、PDA、又はデジタルカメラのような各種電子機器に内蔵される組み込みシステムとして実現され得る。以下では、この電子機器がタブレットコンピュータ(以下、タブレットと称する)10として実現されている場合を想定する。タブレット10は、スレートコンピュータとも称される携帯型電子機器であり、図1に示すように、本体11とタッチスクリーンディスプレイ17とを備える。タッチスクリーンディスプレイ17は、本体11の上面に重ね合わせるように取り付けられている。
本体11は、薄い箱形の筐体を有している。タッチスクリーンディスプレイ17には、フラットパネルディスプレイと、フラットパネルディスプレイの画面上のスタイラスペン又は指の接触位置を検出するように構成されたセンサとが組み込まれている。フラットパネルディスプレイは、例えば、液晶ディスプレイ(LCD)であっても良い。センサとしては、例えば、静電容量方式のタッチパネル、電磁誘導方式のデジタイザなどを使用することができる。
また、本体11には、本体11の前面側から画像(写真)を撮影するためのカメラモジュール18が設けられている。なお、本体11に、本体11の背面側から画像を撮影するための他のカメラモジュールが設けられても良い。
図2は、タブレット10のシステム構成の例を示す図である。タブレット10は、図2に示されるように、中央演算処理装置(CPU)101、システムコントローラ102、主メモリ103、グラフィクスコントローラ104、BIOS−ROM105、不揮発性メモリ106、無線通信デバイス107、エンベデッドコントローラ(EC)108、カードコントローラ110、等を備える。
CPU101は、タブレット10内の各種モジュールの動作を制御するプロセッサである。CPU101は、ストレージデバイスである不揮発性メモリ106から主メモリ103にロードされる各種ソフトウェアを実行する。これらソフトウェアには、オペレーティングシステム(OS)201、及び各種アプリケーションプログラムが含まれている。アプリケーションプログラムには、画像管理プログラム202が含まれている。この画像管理プログラム202は、例えば、カメラモジュール18を用いて撮影された画像(画像ファイル)、不揮発性メモリ106に格納された画像、外部記憶媒体や外部記憶装置から取り込まれた画像(インポートされた画像)等を管理する機能を有する。
また、CPU101は、BIOS−ROM105に格納された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
システムコントローラ102は、CPU101のローカルバスと各種コンポーネントとの間を接続するデバイスである。システムコントローラ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、システムコントローラ102は、PCI EXPRESS規格のシリアルバスなどを介してグラフィクスコントローラ104との通信を実行する機能も有している。
グラフィクスコントローラ104は、本タブレット10のディスプレイとして使用されるLCD17Aを制御する表示コントローラである。このグラフィクスコントローラ104によって生成される表示信号はLCD17Aに送られる。LCD17Aは、表示信号に基づいて画面イメージを表示する。このLCD17A上には、本タブレット10のセンサとして使用されるタッチパネル17Bが配置されている。なお、ディスプレイはLCD17Aに限らず、有機ELディスプレイのような他の装置であっても良い。
無線通信デバイス107は、無線LAN又は3G移動通信などの無線通信を実行するように構成されたデバイスである。EC108は、電力管理のためのエンベデッドコントローラを含むワンチップマイクロコンピュータである。EC108は、ユーザによるパワーボタンの操作に応じて本タブレット10を電源オン又は電源オフする機能を有している。
カメラモジュール18は、例えば、ユーザが、タッチスクリーンディスプレイ17の画面上に表示されたボタン(グラフィカルオブジェクト)をタッチ(タップ)したことに応じて、画像を撮影する。
カードコントローラ110は、カードスロット25に挿入された記録メディア25Aとの通信を実行する。カードコントローラ110は、例えば、記録メディア25AであるSDカードに格納された画像ファイルを読み出して不揮発性メモリ106に格納する際の通信等を実行する。
上述したように、タブレット10によって実行される画像管理プログラム202は、複数の画像(画像ファイル)を管理する機能を有する。画像管理プログラム202は、例えば、複数の画像を人物又は物に基づいて分類することができる。
図3は、本タブレット10によって実行される画像管理プログラム202の機能構成の例を示す図である。図4は、タブレット10が画像管理プログラム202を実行することにより、LCD17Aに表示される画面30を示す図である。以下、図3及び図4を参照して、画像管理プログラム202について詳しく説明する。
図3に示すように、画像管理プログラム202は、例えば、画像取得部81と、分類部分検出部82と、特徴量算出部83と、クラスタリング部84と、表示制御部85と、操作受付部86と、閾値算出部87とを備える。操作受付部86は、受け付け部の一例である。
画像管理プログラム202は、タブレット10に内蔵又は外部接続される記憶装置や記憶メディア、タブレット10にネットワークを介して接続される別のコンピュータ内の記憶装置、等に格納される複数の画像(写真)を管理対象とすることができる。画像管理プログラム202の各部は、複数の画像を人物に基づいて分類し、図4の画面30に分類結果を表示する。
図3の画像取得部81は、管理対象の複数の画像を、タブレット10に内蔵又は外部接続される記憶装置や記憶メディア、タブレット10にネットワークを介して接続される別のコンピュータ内の記憶装置、等から取得する。なお、画像取得部81は、画像に限らず、例えば画像の作成日時のような画像に関連付けられた情報(関連情報)を取得しても良い。画像取得部81は、取得した複数の画像を、分類部分検出部82に出力する。
分類部分検出部82は、複数の画像から、例えば複数の顔画像を検出する。顔画像は、各画像が有する部分の一例である。顔画像は、一つの画像に複数含まれることがあり、また一つの画像に一つも含まれないこともある。
分類部分検出部82は、例えば、画像に含まれる複数の画素の画素値を用いて、当該画像内の、顔画像が含まれると推定される領域(顔画像領域)を検出する。この顔画像領域は、例えば、顔画像に外接する矩形領域である。分類部分検出部82は、検出された顔画像領域を示すデータを特徴量算出部83に出力する。
特徴量算出部83は、検出された顔画像領域に含まれる画素の画素値を用いて、当該顔画像の特徴量(例えば、顔画像領域内の物体の色や形状を表す特徴量)を算出する。分類部分検出部82によって複数の画像から複数の顔画像が検出されている場合、特徴量算出部83は、それら複数の顔画像に対応する複数の特徴量を算出する。
なお、画像の特徴量を抽出する手法としては、例えば、領域ベースエッジ画像認識技術に基づく特徴検出や、HOG(Histograms of Oriented Gradients)などの特徴量に基づく特徴検出などが挙げられる。これらの手法を用いることにより、特徴量算出部83は、例えばQRコード(登録商標)のような特殊な情報が付加されていない画像に対しても特徴量の検出を行うことができる。
クラスタリング部84は、検出された複数の顔画像に基づいて、それら複数の顔画像を含む複数の画像(写真)を複数のグループ(クラスタ)に分類する。より具体的には、クラスタリング部84は、特徴量算出部83によって算出された顔画像の特徴量に基づいて、各々が顔画像を含む複数の画像(写真)をクラスタリングする。クラスタリング部84は、複数の顔画像を類似する顔画像毎に分類することによって、その顔画像を含む画像(写真)をグループ(例えば第1乃至第4のグループ31〜34)に分類する。つまり、クラスタリング部84は、同一の人物の顔であると推定される顔画像含む画像(写真)を同一のグループに分類する。
例えば、クラスタリング部84は、検出された複数の顔画像に基づいて、第1顔(第1の人物の顔)に対応する一以上の画像を第1のグループに分類し、第2顔(第2の人物の顔)に対応する一以上の画像を第2のグループに分類し、……第n顔(第nの人物の顔)に対応する一以上の画像を第nのグループに分類する。このように、クラスタリング部84は、複数の画像に含まれる顔写真の人物の数に応じた個数のグループを生成する。なお、クラスタリング部84は、分類を間違えたり、同一人物が存在しない顔画像を含む画像を「その他」グループに分類したりするため、複数の画像に含まれる顔写真の人物の数は生成されたグループの数と異なって良い。
複数の顔画像を含む一つの画像は、複数のグループに分類され得る。クラスタリング部84は、例えば、複数の画像の内の第1画像(写真)から、第1顔に対応する画像と第2顔に対応する画像とが検出された場合、この第1画像(写真)を、第1のグループと、第2のグループとの双方に分類する。また、クラスタリング部84は、複数の画像の内の第2画像(写真)から、第1顔に対応する画像、又は第2顔に対応する画像の少なくとも一方が検出された場合であっても、第1顔に対応する画像、又は第2顔に対応する画像の撮影状態によっては、第1のグループ、又は第2のグループに分類しなくても良い。この第1顔に対応する画像、又は第2顔に対応する画像の撮影状態とは、第1顔に対応する画像、又は第2顔に対応する画像の位置、又はフォーカス(例えば、顔に焦点が合っていて、鮮明であるかどうか)の少なくとも一方である。
また、画像を分類する手法としては、例えばK−means法や最短距離法などのデータクラスタリング手法が挙げられる。クラスタリング部84は、例えば、閾値(分類基準)を用いるこれらのデータクラスタリング手法によって画像を分類する。閾値は、第1分類基準及び第2分類基準の一例である。すなわち、クラスタリング部84は、顔画像の特徴量と閾値とに基づいて、画像を複数のグループに分類する。なお、データクラスタリング手法は、階層的手法であっても非階層的手法であっても良い。クラスタリング部84は、予め用意された人物毎の顔画像の特徴量を用いて、各グループに対応する人物を認識しても良い。
クラスタリング部84は、顔画像の特徴量のみでなく、例えば、画像取得部81が取得した関連情報を用いて画像を分類しても良い。例えば、関連情報として当該画像に写る人物の情報が設定されている場合、クラスタリング部84は、当該関連情報を用いて画像の分類を行って良い。
図4に示すように、クラスタリング部84は、例えば、複数の画像を第1のグループ31と、第2のグループ32と、第3のグループ33と、第4のグループ34とに分類する。第1のグループ31は、第1グループの一例である。第3のグループ33は、第2グループの一例である。
例えば、複数の顔画像41A,41B,41C,41D,41E,41F,41G,41Hを含む画像は、第1のグループ31に属する。すなわち、クラスタリング部84は、ある閾値を用いた分類においては、複数の顔画像41A〜41Hを、同一の人物の顔を示す顔画像であると推定する。
複数の顔画像42A,42B,42C,42Dを含む画像は、第2のグループ32に属する。すなわち、クラスタリング部84は、ある閾値を用いた分類においては、複数の顔画像42A〜42Dを、同一の人物の顔を示す顔画像であると推定する。
複数の顔画像43A,43Bを含む画像は、第3のグループ33に属する。すなわち、クラスタリング部84は、ある閾値を用いた分類においては、複数の顔画像43A,43Bを、同一の人物の顔を示す顔画像であると推定する。
複数の顔画像44A,44B,44C,44D,44E,44F,44G,44H,44I,44Jを含む画像は、第4のグループ34に属する。第4のグループ34は「その他」のグループである。すなわち、クラスタリング部84は、ある閾値を用いた分類においては、複数の顔画像44A〜44Jを、同一の人物の顔を示す顔画像が存在しないと推定する。
表示制御部85は、クラスタリング部84による画像の分類結果に基づいて、図4のようにグループ毎に顔画像41A〜41H,42A〜42D,43A,43B,44A〜44Jを画面30に表示する。言い換えると、表示制御部85は、顔画像のリストを画面30に表示する。なお、表示部85は、顔画像に限らず、例えば縮小された画像を画面30に表示しても良い。
表示制御部85は、第1のグループ31に属する複数の顔画像41A〜41Hを集めて画面30に表示する。表示制御部85は、顔画像41A〜41Hとともにサムネイル31Aを表示する。サムネイル31Aは、第1のグループ31に属する複数の顔画像41A〜41Hを含む画像からランダムに選ばれる。
表示制御部85は、第2のグループ32に属する複数の顔画像42A〜42Dを集めて画面30に表示する。表示制御部85は、顔画像42A〜42Dとともにサムネイル32Aを表示する。サムネイル32Aは、第2のグループ32に属する複数の顔画像42A〜42Dを含む画像からランダムに選ばれる。
表示制御部85は、第3のグループ33に属する複数の顔画像43A,43Bを集めて画面30に表示する。表示制御部85は、顔画像43A,43Bとともにサムネイル33Aを表示する。サムネイル33Aは、第3のグループ33に属する複数の顔画像43A,43Bを含む画像からランダムに選ばれる。
表示制御部85は、第4のグループ34に属する複数の顔画像44A〜44Jを集めて画面30に表示する。表示制御部85は、顔画像44A〜44Jとともにサムネイル34Aを表示する。サムネイル34Aは、第4のグループ34に属する複数の顔画像44A〜44Jを含む画像からランダムに選ばれる。
以上のように、表示制御部85は、画像の一部である複数の顔画像をグループ毎に画面30に表示する。なお、クラスタリング部84は、同一の人物の顔を示す顔画像が存在しないと推定される複数の顔画像44A〜44Jを、上述のように第4のグループ34に分類しても良いが、個別にグループに分類しても良い。この場合、一つの顔画像(個々の顔画像44A〜44J)のみが属する複数のグループが生成される。すなわち、グループに属する画像は、一つであっても良いし、複数であっても良い。
表示制御部85は、顔画像を階層表示しても良い。例えば、表示制御部85は、第1乃至第4のグループ31〜34のサムネイル31A〜34Aのみを画面30に表示し、ユーザがサムネイル31A〜34Aをタッチ操作したときに各グループ31〜34の顔画像を個別に表示しても良い。このように、表示制御部85が画面30に表示する画像の分類結果は、図4に示すものに限られない。
表示制御部85は、画面30の全体の表示についても行う。表示制御部85は、画面30に、プレビュー部51と、選択解除ボタン52と、グループ結合ボタン53と、グループ削除ボタン54と、グループ追加ボタン55と、再分類ボタン56とをさらに表示する。
プレビュー部51は、例えば、複数の顔画像41A〜41H,42A〜42D,43A,43B,44A〜44Jを含む画像からランダムに選ばれた画像の一部を拡大して表示する。
選択解除ボタン52、グループ結合ボタン53、グループ削除ボタン54、グループ追加ボタン55、及び再分類ボタン56は、画面30に表示されたボタン(グラフィカルオブジェクト)である。ユーザが選択解除ボタン52、グループ結合ボタン53、グループ削除ボタン54、グループ追加ボタン55、又は再分類ボタン56を操作したことに応じて、操作受付部86は、後述の種々の処理を行う。
操作受付部86は、例えばユーザがタッチパネル17Bに指又はスタイラスペン(以下、指等と称する)で触れたり、指等を移動させたりすることで、タッチパネル17Bが検知した指等の挙動をタッチ操作、長押し操作、及び移動操作のような種々のイベントとして入力する。
操作受付部86は、ユーザが行うグループや顔画像の上でタッチ操作、長押し操作、及び移動操作に応じて、例えば、顔画像及びグループの選択や、顔画像のグループ間での移動のような種々の処理を行う。
操作受付部86は、画面30におけるユーザの操作に応じて、複数の顔画像41A〜41H,42A〜42D,43A,43B,44A〜44Jを含む画像を、第1乃至第4のグループ31〜34の間で移動させる。例えば、画面30の顔画像43Aが表示された位置をユーザが指等で長押し操作し、当該指等を第1のグループ31が表示される位置へ移動させると、操作受付部86は、顔画像43Aを第1のグループ31に移動(再分類)させる。言い換えると、操作受付部86は、一つのグループに含まれる1以上の画像を、他のグループへ変更するための操作を受け付ける。なお、画像を移動するための操作はこれに限られない。
また、操作受付部86は、例えば、ユーザが画面30のサムネイル31Aが表示された位置に触れると、第1のグループ31を選択された状態にする。また、操作受付部86は、例えば、ユーザが画面30の顔画像41Aが表示された位置で長押し操作をすると、顔画像41Aが選択された状態にする。他のグループ及び他の顔画像も、同様に選択される。表示制御部85は、選択された状態のグループ及び顔画像を、例えば選択枠61で囲んで示す。
ユーザが選択解除ボタン51を操作すると、操作受付部86は、ユーザの操作による顔画像及びグループの選択操作を解除する。選択解除ボタン52は、例えば、ユーザが画面30の選択解除ボタン52が表示された位置にタッチ(タップ)操作することにより操作される。選択解除ボタン52は、例えばマウスによるクリック操作によって操作されても良い。なお、グループ結合ボタン53、グループ削除ボタン54、グループ追加ボタン55、再分類ボタン56も、同様に操作される。
ユーザがグループ結合ボタン53を操作すると、操作受付部86は、選択された状態の複数のグループを結合する。言い換えると、操作受付部86は、選択された一つのグループに、選択された他の少なくとも一つのグループに属する画像を移動させる。例えば、図4のように第1のグループ31と第3のグループ33とが選択されている場合、操作受付部86は、第3のグループ33に属する顔画像43A,43Bを含む画像を、第1のグループ31に移動させる。
ユーザがグループ削除ボタン54を操作すると、操作受付部86は、選択された状態の少なくとも一つのグループを削除する。言い換えると、操作受付部86は、選択されたグループに属する画像を、「その他」のグループである第4のグループ34に移動させる。例えば、図4のように第1のグループ31と第3のグループ33とが選択されている場合、操作受付部86は、第1のグループ31及び第3のグループ33に属する顔画像41A〜41H,43A,43Bを、第4のグループ34に移動させる。
ユーザがグループ追加ボタン55を操作すると、操作受付部86は、画像を含まない(ブランクの)新たなグループを追加する。ユーザは、追加されたグループに顔画像を移動させることができる。例えば、クラスタリング部84が一つのグループに誤って二人の人物の画像を分類した場合、ユーザは、新たなグループを追加し、当該新たなグループに一方の人物の画像を移動させることができる。
再分類ボタン56が操作されると、操作受付部86は、クラスタリング部84に複数の画像を再度分類させる。そして、表示制御部85は、新たな分類結果を画面30に表示する。画像の再分類については後述する。
以上のように、操作受付部86は、画像の移動、複数のグループの結合、グループの削除、グループの追加などを行う。このように、操作受付部86は、ユーザによる複数のグループ間での画像の移動操作を受け付ける。操作受付部86は、これに限らず、ユーザによる種々の操作を受け付ける。
閾値算出部87は、ユーザによる複数のグループ間での画像の移動操作の結果に基づき、クラスタリング部84が使用する分類のための閾値を算出する。本実施形態において、クラスタリング部84は、グループ毎に設定された複数の閾値を用いて分類を行う。このため、閾値算出部87は、複数の閾値を個別に算出する。なお、クラスタリング部84は、一つの閾値を用いて全ての顔画像を分類しても良い。この場合、閾値算出部87は、当該閾値を算出する。
以下、具体例を挙げて説明する。例えば、ユーザが第1のグループ31と第3のグループ33との結合操作を行うことで、顔画像43A,43Bが第1のグループ31に移動する。
このような操作がされると、閾値算出部87は、クラスタリング部84が顔画像43A,43Bを第1のグループ31に分類するような閾値を算出する。閾値算出部87は、第1のグループ31に関する個別の閾値である第1の閾値を算出する。第1の閾値は、第1分類基準の一例である。
また、閾値算出部87は、クラスタリング部84が顔画像43A,43Bを第3のグループ33から外すような閾値を算出する。閾値算出部87は、例えば、第3のグループ33に関する個別の閾値である第3の閾値を算出する。第3の閾値は、第2分類基準の一例であり、第1の閾値とは異なる。
閾値算出部87は、算出した閾値をクラスタリング部84に出力する。クラスタリング部84は、既存の閾値を、閾値算出部87から取得した新たな閾値に変更する。言い換えると、クラスタリング部84は、閾値算出部87から取得した閾値を記憶することで、クラスタリングに使用する閾値を更新する。
別の表現をすれば、閾値算出部87は、第3のグループ33から第1のグループ31に変更になった顔画像43A,43Bを用いて、新たな第1の閾値及び第3の閾値を算出する。クラスタリング部84は、第1の閾値と第3の閾値とを、閾値算出部87が算出した新たな第1の閾値及び第3の閾値に変更する。
クラスタリング部84は、ユーザが再分類ボタン56を操作すると、画像の再分類を行う。すなわち、クラスタリング部84は、顔画像の特徴量と、ユーザの移動操作が反映された変更後の閾値(第1の閾値や第3の閾値)と、に基づいて画像を複数のグループに再分類する。
表示制御部85は、クラスタリング部84が画像を複数のグループに再分類すると、クラスタリング部84による画像の分類結果に基づいて、グループ毎に顔画像を画面30に表示する。すなわち、表示制御部85は、変更された閾値に基づいて分類されたグループ毎に、顔画像を画面30に表示する。
次いで、図5のフローチャートを参照して、タブレット10によって実行される画像クラスタリング処理の手順の例を説明する。図5は、タブレット10における画像クラスタリング処理の手順の一部を例示するフローチャートである。
まず、画像取得部81が、複数の画像(複数の写真)を取得する(ステップS11)。分類部分検出部82は、複数の画像の各々に含まれている顔画像を検出する(ステップS12)。
次に、特徴量算出部83は、検出された顔画像に含まれる画素の画素値を用いて、当該顔画像の特徴量を算出する(ステップS13)。特徴量算出部83は、分類部分検出部82によって複数の画像から複数の顔画像が検出されている場合、それら複数の顔画像に対応する複数の特徴量を算出する。
次に、クラスタリング部84は、算出された顔画像の特徴量と、閾値と、に基づいて、複数の顔画像をクラスタリングする(ステップS14)。なお、クラスタリング部84は、最初のクラスタリングにおいて、例えば予め設定された閾値を用いる。クラスタリング部84は、複数の顔画像を、類似する顔画像毎のクラスタ(グループ)に分類する、つまり、クラスタリング部84は、同一の人物の顔であると推定される顔画像を同一のクラスタに分類する。クラスタリング部84は、例えば主メモリ103に分類結果を記憶する。
次に、表示制御部85は、分類結果に基づき、グループ毎に顔画像を画面30に表示する(ステップS15)。表示制御部85が分類結果を画面30に表示すると、操作受付部86は、複数のグループ間での画像の移動操作を受け付け可能な状態に移行する。そして、操作受付部86は、ユーザによる複数のグループ間での画像の移動操作があったか否かを判断する(ステップS16)。
例えば、第1のグループ31に分類された顔画像41A〜41Hが示す人物と、第3のグループ33に分類された顔画像43A,43Bが示す人物と、が同一人物であった場合、ユーザは、第1のグループ31と第3のグループ33とを選択する。ユーザは、グループ結合ボタン53を操作することで、第1のグループ31と第3のグループ33とを結合する。これにより、第3のグループ33の顔画像43A,43Bが第1のグループ31に移動し(変更され)、同一人物を示す顔画像41A〜41H,41A,41Bが第1のグループ31に纏まる。
例えば上記のような画像の移動操作がされると(ステップS16:Yes)、閾値算出部87は、ユーザによる複数のグループ間での画像の移動操作の結果に基づき、新たな閾値(第1の閾値や第3の閾値)を算出する。クラスタリング部84は、クラスタリングに用いる閾値を、閾値算出部87が算出した新たな閾値に変更する(ステップS17)。
次に、操作受付部86は、ユーザが再分類ボタン56を操作したか否かを判断する(ステップS18)。ユーザが再分類ボタン56を操作せず(ステップS18:No)、画像管理プログラム202を終了しない場合(ステップS19:No)、操作受付部86は、画像の移動操作の受け付けを続ける(ステップS16)。閾値算出部87は、ユーザによる複数のグループ間での画像の移動操作がされる度に(ステップS16:Yes)、新たな閾値を算出する(ステップS17)。
画像の移動操作の後に、ユーザが再分類ボタン56を操作した場合(ステップS18:Yes)、クラスタリング部84は、顔画像の特徴量と、変更された閾値とに基づいて、複数の顔画像をクラスタリング(再分類)する(ステップS14)。表示制御部85は、再分類の結果に基づき、グループ毎に顔画像を画面30に表示する(ステップS15)。
図6は、画像の再分類がされた後の、LCD17Aに表示される画面30を示す図である。ユーザによって顔画像43A,43Bが第1のグループ31に移動させられると、当該移動操作の結果に基づいて、閾値算出部87が新たな閾値を算出する。クラスタリング部84は、当該閾値を用いて画像の分類を行うため、顔画像43A,43Bを第1のグループ31に分類し、第3のグループ33から外す。顔画像43A,43Bが第3のグループ33から外れるため、クラスタリング部84は、第3のグループ33を削除する(生成しない)。
新たな閾値を用いて画像の分類を行うクラスタリング部84は、第4のグループ34に属していた顔画像44A,44Eを、新たな第5のグループ35に分類し、第4のグループ34から外す。このように、クラスタリング部84は、閾値算出部87が算出した新たな閾値を用いることで、ユーザによる複数のグループ間での移動操作が行われなかった画像を、複数のグループ間で移動させることがある。すなわち、クラスタリング部84は、変更された閾値に従って、ユーザによって移動させられた画像以外の画像についても自動的に再分類する。表示制御部85は、第5のグループ35の顔画像44A,44Eとともに、サムネイル35Aを表示する。
表示制御部85は、枠62を表示することで、閾値が変更される前の画像の分類結果と、閾値が変更された後の画像の分類結果と、が異なる部分(変更部分)を示す。例えば、クラスタリング部84は、主メモリ103に記憶された閾値変更前の画像の分類結果を、閾値変更後の画像の分類結果と比較し、変更部分を得る。クラスタリング部84は、変更部分を表示制御部85に通知する。表示制御部85は、変更部分(図6における第1のグループ31、第4のグループ34、及び第5のグループ35)をそれぞれ囲む枠62を画面30に表示し、変更部分を示す。
図7は、画像の再分類がされた後の、LCD17Aに表示される画面30の他の例を示す図である。図7を参照して、再分類の他の例について説明する。図7の例において、例えば、ユーザは、第3のグループ33に属する顔画像43Aを、第1のグループ31に移動させる。言い換えると、顔画像43Aが、第1のグループ31に変更される。顔画像43Aは、第2画像の一例である。
ユーザによって顔画像43Aが第1のグループ31に移動させられると、当該移動操作の結果(顔画像43Aの第1のグループ31への変更)に基づいて、閾値算出部87が新たな閾値(第1の閾値や第3の閾値)を算出する。クラスタリング84部は、当該閾値を用いて画像の再分類を行う。
クラスタリング部84は、変更された第1の閾値及び第3の閾値に基づき、顔画像43Aを第1のグループ31に分類し、第3のグループ33から外す。さらに、クラスタリング部84は、変更された第1の閾値に基づき、顔画像43Bについても第1のグループ31に自動的に再分類する。顔画像43Bは、第3画像の一例である。このように、第1のグループ31に分類するための基準(第1分類基準)が変更されることで、クラスタリング部84は、特徴が当該基準に対応する顔画像43Bを第1のグループ31に自動的に再分類する。
クラスタリング部84は、変更された第3の閾値に基づき、顔画像41A,41Bを、第3のグループ33に自動的に再分類する。顔画像41A,41Bは、第4画像の一例である。このように、第3のグループ33に分類するための基準(第2分類基準)が変更されることで、クラスタリング部84は、特徴が当該基準に対応する顔画像41A,41Bを第3のグループ33に自動的に再分類する。
図7の例において、表示制御部85は、第1のグループ31に変更された顔画像43A,43Bと、第3のグループ33に変更された顔画像41A,41Bと、をそれぞれ囲む枠62を表示する。言い換えると、表示制御部85は、過去に第3のグループ33に分類されているとともに第1のグループ31に変更された顔画像43A,43Bを、枠62によって識別可能に表示する。同じく、表示制御部85は、過去に第1のグループ31に分類されているとともに第3のグループ33に変更された顔画像41A,41Bを、枠62によって識別可能に表示する。なお、表示制御部85は、枠62に限らず、例えば顔画像やグループをハイライト表示したり、拡大したり、明るくしたり、色を変えたりすることで、変更部分を識別可能に表示しても良い。
以上述べたように、画像管理プログラム202は、画像の移動操作の受け付け(ステップS16)、閾値の変更(ステップS17)、再分類ボタン56の操作の受付(ステップS18)、変更された閾値に基づく画像の再分類(ステップS14)、及び再分類結果の表示(ステップS15)を、画像管理プログラム202の終了操作があるまで(ステップS19:Yes)続ける。画像管理プログラム202は、例えば、タブレット10が実行する種々のアプリケーションプログラムと同様に、所定のボタンが操作されることで終了する。
なお、上記処理では、ユーザによるグループ間での画像の移動操作があった場合に(ステップS16:Yes)、閾値算出部87が新たな閾値を算出する(ステップS17)。しかし、再分類ボタン56が操作された場合に(ステップS18:Yes)、閾値算出部87が新たな閾値を算出しても良い。
また、上記処理では、ユーザが再分類ボタン56を操作した場合に(ステップS18:Yes)、クラスタリング部84が画像を再分類する(ステップS14)。しかし、閾値が変更された場合に(ステップS17)、ユーザの操作を待たずにクラスタリング部84が画像を自動的に再分類しても良い。
以上の説明は、画像管理プログラム202が顔画像に基づいて画像を分類する場合について述べるものである。しかし、画像管理プログラム202は、これに限らず、画像に含まれる物に基づいて画像を複数のグループに分類しても良い。
例えば、画像管理プログラム202は、画像(写真)に写る果物や野菜毎に、画像を分類する。この場合、画像の果物又は野菜が写っている部分が、各画像が有する部分の一例である。分類部分検出部82は、複数の画像から、果物又は野菜が写っている部分を検出する。そして、クラスタリング部84は、画像の果物又は野菜が写っている部分と、閾値とに基づいて、画像を果物又は野菜毎に設定された複数のグループに分類する。
なお、図5のフローチャートで説明した本実施形態の処理手順は全てソフトウェアによって実行することができる。このため、この処理手順を実行するプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのプログラムを通常のコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。
上記実施の形態に係るタブレット10において、閾値算出部87は、ユーザによる複数のグループ間での画像の移動操作の結果に基づき、画像を複数のグループに分類するための閾値を算出する。クラスタリング部84は、クラスタリングに用いる閾値を、算出された新たな閾値に変更する。これにより、ユーザが閾値を手動で変更することなく、ユーザによる画像の移動操作に基づいて自動的に閾値が変更されるため、よりユーザの希望に近い閾値が容易に得られる。
クラスタリング部84は、変更された閾値に基づいて画像を複数のグループに分類する。すなわち、ユーザによる画像の移動操作が行われた場合に、当該移動操作に基づいて変更された閾値に基づき画像の再分類が行われる。このため、ユーザが閾値の変更による分類結果への影響を理解するため不要な画像の再分類を行う必要が無く、ユーザの希望に近い分類結果がより早く得られる。
表示制御部85は、閾値が変更される前の画像の分類結果と、閾値が変更された後の画像の分類結果と、が異なる部分を、例えば枠62によってLCD17A上の画面30に示す。このように、クラスタリング部84による分類結果がユーザに提示されることで、ユーザが希望に近い分類結果をより容易に得ることができる。
閾値算出部87は、例えば顔画像43A,43Bが第1のグループ31に移動させられると、顔画像43A,43Bが第1のグループ31に分類されるように第1の閾値を変更する。これにより、閾値の変更後に画像が再分類された場合に、ユーザによって第1のグループ31に移動させられたはずの顔画像43A,43Bが、第1のグループから外れることが抑制される。
閾値算出部87は、例えば顔画像43A,43Bが第3のグループ33から移動させられると、顔画像43A,43Bが第3のグループ33から外れるように第3の閾値を変更する。これにより、閾値の変更後に画像が再分類された場合に、ユーザによって第3のグループ33から移動させられたはずの顔画像43A,43Bが、再び第3のグループ33に分類されることが抑制される。
なお、本実施形態のタブレット10で実行される画像管理プログラム202は、ROM等に予め組み込まれて提供される。
本実施形態のタブレット10で実行される画像管理プログラム202は、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成しても良い。
さらに、本実施形態のタブレット10で実行される画像管理プログラム202を、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態のタブレット10で実行される画像管理プログラム202をインターネット等のネットワーク経由で提供又は配布するように構成しても良い。
本実施形態のタブレット10で実行される画像管理プログラム202は、上述した各部(画像取得部81、分類部分検出部82、特徴量算出部83、クラスタリング部84、表示制御部85、操作受付部86、及び閾値算出部87)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記ROMから画像管理プログラム202を読み出して実行することにより上記各部が主記憶装置上にロードされ、画像取得部81、分類部分検出部82、特徴算出部83、クラスタリング部84、表示制御部85、操作受付部86、及び閾値算出部87が主記憶装置上に生成されるようになっている。
以上説明した少なくとも一つの実施形態によれば、プロセッサは、前記第2グループから前記第1グループに変更となった1以上の第2画像を用いて、前記第1分類基準を少なくとも変更する。これにより、ユーザが分類基準を手動で変更することなく、ユーザによる画像のグループを変更する操作に基づいて自動的に分類基準が変更されるため、よりユーザの希望に近い分類基準を容易に得られる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (9)

  1. 各画像が有する部分の特徴が第1分類基準に対応する複数の第1画像を第1グループに分類し、各画像が有する部分の特徴が前記第1分類基準とは異なる第2分類基準に対応する複数の第2画像を第2グループに分類するプロセッサと、
    前記第1グループに含まれる複数の第1画像と、前記第2グループに含まれる複数の第2画像とをディスプレイ上に表示するための表示制御部と、
    前記第2グループに含まれる1以上の第2画像を、前記第1グループへ変更するための第1操作を受け付ける受け付け部と、を備え、
    前記プロセッサは、前記第2グループから前記第1グループに変更となった1以上の第2画像を用いて、前記第1分類基準を少なくとも変更する、
    電子機器。
  2. 前記プロセッサは、前記第1操作を受け付けた後、各画像が有する部分の特徴が変更後の第1分類基準に対応する複数の第3画像を第1グループに自動的に再分類する、請求項1の電子機器。
  3. 前記プロセッサは、前記第1操作を受け付けた後、前記第2グループから前記第1グループに変更となった1以上の第2画像を用いて、前記第1分類基準と前記第2分類基準との双方を変更し、
    各画像が有する部分の特徴が変更後の第1分類基準に対応する複数の第3画像を第1グループに自動的に再分類し、
    各画像が有する部分の特徴が変更後の第2分類基準に対応する複数の第4画像を第2グループに自動的に再分類し、
    前記表示制御部は、前記複数の第3画像のうち、過去に前記第2グループに分類されていた画像と、前記複数の第4画像のうち、過去に前記第1グループに分類されていた画像とを識別可能に表示する、請求項1の電子機器。
  4. 各画像が有する部分の特徴が第1分類基準に対応する複数の第1画像を第1グループに分類し、
    各画像が有する部分の特徴が前記第1分類基準とは異なる第2分類基準に対応する複数の第2画像を第2グループに分類し、
    前記第1グループに含まれる複数の第1画像と、前記第2グループに含まれる複数の第2画像とをディスプレイ上に表示し、
    前記第2グループに含まれる1以上の第2画像を、前記第1グループへ変更するための第1操作を受け付け、
    前記第2グループから前記第1グループに変更となった1以上の第2画像を用いて、前記第1分類基準を少なくとも変更する、
    ことを含む方法。
  5. 前記第1操作を受け付けた後、各画像が有する部分の特徴が変更後の第1分類基準に対応する複数の第3画像を第1グループに自動的に再分類する、ことをさらに含む請求項4の方法。
  6. 前記第1操作を受け付けた後、前記第2グループから前記第1グループに変更となった1以上の第2画像を用いて、前記第1分類基準と前記第2分類基準との双方を変更し、
    各画像が有する部分の特徴が変更後の第1分類基準に対応する複数の第3画像を第1グループに自動的に再分類し、
    各画像が有する部分の特徴が変更後の第2分類基準に対応する複数の第4画像を第2グループに自動的に再分類し、
    前記複数の第3画像のうち、過去に前記第2グループに分類されていた画像と、前記複数の第4画像のうち、過去に前記第1グループに分類されていた画像とを識別可能に表示する、
    ことをさらに含む請求項4の方法。
  7. 各画像が有する部分の特徴が第1分類基準に対応する複数の第1画像を第1グループに分類し、
    各画像が有する部分の特徴が前記第1分類基準とは異なる第2分類基準に対応する複数の第2画像を第2グループに分類し、
    前記第1グループに含まれる複数の第1画像と、前記第2グループに含まれる複数の第2画像とをディスプレイ上に表示し、
    前記第2グループに含まれる1以上の第2画像を、前記第1グループへ変更するための第1操作を受け付け、
    前記第2グループから前記第1グループに変更となった1以上の第2画像を用いて、前記第1分類基準を少なくとも変更する、
    ことをコンピュータに実行させるためのプログラム。
  8. 前記第1操作を受け付けた後、各画像が有する部分の特徴が変更後の第1分類基準に対応する複数の第3画像を第1グループに自動的に再分類する、ことをさらに前記コンピュータに実行させるための請求項7のプログラム。
  9. 前記第1操作を受け付けた後、前記第2グループから前記第1グループに変更となった1以上の第2画像を用いて、前記第1分類基準と前記第2分類基準との双方を変更し、
    各画像が有する部分の特徴が変更後の第1分類基準に対応する複数の第3画像を第1グループに自動的に再分類し、
    各画像が有する部分の特徴が変更後の第2分類基準に対応する複数の第4画像を第2グループに自動的に再分類し、
    前記複数の第3画像のうち、過去に前記第2グループに分類されていた画像と、前記複数の第4画像のうち、過去に前記第1グループに分類されていた画像とを識別可能に表示する、
    ことをさらに前記コンピュータに実行させるための請求項7のプログラム。
JP2016532378A 2014-07-10 2014-07-10 電子機器、方法及びプログラム Pending JPWO2016006090A1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/068502 WO2016006090A1 (ja) 2014-07-10 2014-07-10 電子機器、方法及びプログラム

Publications (1)

Publication Number Publication Date
JPWO2016006090A1 true JPWO2016006090A1 (ja) 2017-05-25

Family

ID=55063763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016532378A Pending JPWO2016006090A1 (ja) 2014-07-10 2014-07-10 電子機器、方法及びプログラム

Country Status (2)

Country Link
JP (1) JPWO2016006090A1 (ja)
WO (1) WO2016006090A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104820675B (zh) * 2015-04-08 2018-11-06 小米科技有限责任公司 相册显示方法及装置
WO2019008961A1 (ja) * 2017-07-07 2019-01-10 日本電気株式会社 情報処理装置、情報処理方法、およびプログラム
CN110472091B (zh) * 2019-08-22 2022-01-11 深圳市商汤科技有限公司 图像处理方法及装置、电子设备和存储介质
JP2021140485A (ja) * 2020-03-05 2021-09-16 ソニーグループ株式会社 情報処理装置及び情報処理方法
WO2021193271A1 (ja) * 2020-03-23 2021-09-30 株式会社湯山製作所 鑑査支援システム、鑑査支援プログラム
US20240087289A1 (en) * 2021-05-25 2024-03-14 Nec Corporation Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11344450A (ja) * 1998-06-03 1999-12-14 Hitachi Ltd 教示用データ作成方法並びに欠陥分類方法およびその装置
JP2000057349A (ja) * 1998-08-10 2000-02-25 Hitachi Ltd 欠陥の分類方法およびその装置並びに教示用データ作成方法
JP2001134763A (ja) * 1999-11-09 2001-05-18 Hitachi Ltd 撮像画像に基づく欠陥の分類方法、および、その結果の表示方法
JP2011145791A (ja) * 2010-01-13 2011-07-28 Hitachi Ltd 識別器学習画像生成プログラム、方法、及びシステム
JP2011158373A (ja) * 2010-02-02 2011-08-18 Dainippon Screen Mfg Co Ltd 自動欠陥分類のための教師データ作成方法、自動欠陥分類方法および自動欠陥分類装置
JP2012174222A (ja) * 2011-02-24 2012-09-10 Olympus Corp 画像認識プログラム、方法及び装置
JP2012208710A (ja) * 2011-03-29 2012-10-25 Panasonic Corp 属性推定装置
JP2014016786A (ja) * 2012-07-09 2014-01-30 Canon Inc 画像処理装置、画像処理方法、及びプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11344450A (ja) * 1998-06-03 1999-12-14 Hitachi Ltd 教示用データ作成方法並びに欠陥分類方法およびその装置
JP2000057349A (ja) * 1998-08-10 2000-02-25 Hitachi Ltd 欠陥の分類方法およびその装置並びに教示用データ作成方法
JP2001134763A (ja) * 1999-11-09 2001-05-18 Hitachi Ltd 撮像画像に基づく欠陥の分類方法、および、その結果の表示方法
JP2011145791A (ja) * 2010-01-13 2011-07-28 Hitachi Ltd 識別器学習画像生成プログラム、方法、及びシステム
JP2011158373A (ja) * 2010-02-02 2011-08-18 Dainippon Screen Mfg Co Ltd 自動欠陥分類のための教師データ作成方法、自動欠陥分類方法および自動欠陥分類装置
JP2012174222A (ja) * 2011-02-24 2012-09-10 Olympus Corp 画像認識プログラム、方法及び装置
JP2012208710A (ja) * 2011-03-29 2012-10-25 Panasonic Corp 属性推定装置
JP2014016786A (ja) * 2012-07-09 2014-01-30 Canon Inc 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
WO2016006090A1 (ja) 2016-01-14

Similar Documents

Publication Publication Date Title
US11113523B2 (en) Method for recognizing a specific object inside an image and electronic device thereof
US10649633B2 (en) Image processing method, image processing apparatus, and non-transitory computer-readable storage medium
US10796405B2 (en) Image processing apparatus and method, and non-transitory computer-readable storage medium storing program
EP3125135B1 (en) Picture processing method and device
US9129150B2 (en) Electronic apparatus and display control method
WO2016006090A1 (ja) 電子機器、方法及びプログラム
US9734591B2 (en) Image data processing method and electronic device supporting the same
US20170039748A1 (en) Image processing apparatus and image processing method
EP3373201A1 (en) Information processing apparatus, information processing method, and storage medium
US11037265B2 (en) Information processing method, information processing apparatus, and storage medium
TW201531918A (zh) 在使用者介面上組織數位便箋
JP5799817B2 (ja) 指位置検出装置、指位置検出方法及び指位置検出用コンピュータプログラム
US10878268B2 (en) Information processing apparatus, control method thereof, and storage medium
CN112954210A (zh) 拍照方法、装置、电子设备及介质
JP6279837B2 (ja) 画像処理装置及びプログラム
CN108781252A (zh) 一种图像拍摄方法及装置
JP2014016790A (ja) 情報処理装置、情報処理方法、およびプログラム
US11073962B2 (en) Information processing apparatus, display control method, and program
US20210406588A1 (en) Image processing device, image processing method, and image processing program
KR102303206B1 (ko) 전자장치에서 이미지 내의 특정 객체를 인식하기 위한 방법 및 장치
EP3131035A1 (en) Image processing apparatus, image processing method, and program
JP6419560B2 (ja) 検索装置、方法及びプログラム
JP2014209326A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN113273167B (zh) 数据处理设备、方法和存储介质
RU2587406C2 (ru) Способ обработки визуального объекта и электронное устройство, используемое в нем

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171205