JP2018028716A - Information processing apparatus and program - Google Patents
Information processing apparatus and program Download PDFInfo
- Publication number
- JP2018028716A JP2018028716A JP2016159131A JP2016159131A JP2018028716A JP 2018028716 A JP2018028716 A JP 2018028716A JP 2016159131 A JP2016159131 A JP 2016159131A JP 2016159131 A JP2016159131 A JP 2016159131A JP 2018028716 A JP2018028716 A JP 2018028716A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image
- information processing
- processing apparatus
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing apparatus and a program.
特許文献1には、人物と入れ物を関連付ける情報処理装置が開示されている。この情報処理装置は、カメラで撮影した画像から人、入れ物及び商品を抽出する。情報処理装置は、入れ物に商品を入れる動き又は入れ物から商品を出す動きを特定すると、商品が入れられた又は出された入れ物と予め定められた関係にある人物を入れ物と関連付ける。 Patent Document 1 discloses an information processing apparatus that associates a person with a container. This information processing apparatus extracts a person, a container and a product from an image photographed by a camera. When the information processing device identifies the movement of putting a product into a container or the movement of putting out a product from a container, the information processing apparatus associates a person into which the product has been put in or a predetermined relationship with the container that has been put out.
特許文献1の情報処理装置では、人物を入れ物にしか関連付けることができず、また、関連付ける場合には特定の動作が必要となる。 In the information processing apparatus of Patent Document 1, a person can be associated only with a container, and a specific operation is required when associating a person.
本発明は、上述した背景の下になされたものであり、人物と物との対応付けを容易にすることを目的とする。 The present invention has been made under the above-described background, and an object thereof is to facilitate the association between a person and an object.
本発明は、第1画像内にある顔及び整理対象を検出する検出部と、前記検出部が検出した前記整理対象の画像である第2画像を生成する生成部と、前記検出部が検出した顔に対応した人物を特定する特定部と、前記特定部が特定した人物と前記生成部が生成した第2画像とを対応付けて記憶部に記憶させる記憶制御部とを備える情報処理装置を提供する。 According to the present invention, a detection unit that detects a face and an arrangement target in the first image, a generation unit that generates a second image that is the arrangement target image detected by the detection unit, and the detection unit detects Provided is an information processing apparatus comprising: a specifying unit that specifies a person corresponding to a face; and a storage control unit that associates and stores the person specified by the specifying unit and the second image generated by the generating unit in a storage unit To do.
本発明においては、前記検出部は、前記第1画像内において手で持たれている物又は着用されている物を前記整理対象として検出する構成としてもよい。 In this invention, the said detection part is good also as a structure which detects the thing currently hold | maintained by the hand in the said 1st image, or the thing currently worn | worn as the said organizing object.
また、本発明においては、前記人物毎に前記整理対象が設定することで、前記検出部は、前記特定部が特定した人物に設定されている前記整理対象を検出する構成としてもよい。 In the present invention, the organizing target is set for each person, and the detection unit may detect the organizing target set for the person specified by the specifying unit.
また、本発明においては、前記整理対象をユーザの操作に応じて設定する構成としてもよい。 Moreover, in this invention, it is good also as a structure which sets the said organizing object according to a user's operation.
また、本発明においては、前記特定部は、前記検出部が前記第1画像から複数の顔を検出した場合、前記検出部が検出した顔毎に対応する人物を特定し、前記記憶制御部は、前記特定部が特定した一又は複数の人物と前記第2画像とを対応付けて前記記憶部に記憶させる構成としてもよい。 In the present invention, when the detecting unit detects a plurality of faces from the first image, the specifying unit specifies a person corresponding to each face detected by the detecting unit, and the storage control unit The one or a plurality of persons specified by the specifying unit and the second image may be associated with each other and stored in the storage unit.
また、本発明においては、前記生成部は、前記検出部が前記第1画像から複数の整理対象を検出した場合、前記検出部が検出した前記複数の整理対象毎に前記第2画像を生成し、前記記憶制御部は、前記生成部が特定した一又は複数の前記第2画像と前記特定部が特定した人物とを対応付けて前記記憶部に記憶させる構成としてもよい。 In the present invention, when the detection unit detects a plurality of organizing objects from the first image, the generating unit generates the second image for each of the plurality of organizing objects detected by the detecting unit. The storage control unit may be configured to store the one or more second images specified by the generation unit and the person specified by the specification unit in the storage unit in association with each other.
また、本発明においては、前記特定部は、前記第1画像内において前記検出部が検出した顔の位置と、前記第1画像内において前記検出部が検出した前記整理対象との位置関係に応じて前記人物を特定する構成としてもよい。 In the present invention, the specifying unit is configured to respond to a positional relationship between the position of the face detected by the detection unit in the first image and the organizing target detected by the detection unit in the first image. The person may be specified.
また、本発明においては、前記検出部が検出した顔に対応する人物をユーザの操作に応じて設定する構成としてもよい。 Moreover, in this invention, it is good also as a structure which sets the person corresponding to the face which the said detection part detected according to a user's operation.
また、本発明においては、前記検出部は、前記第2画像から文字列を検出し、前記記憶制御部は、前記特定部が特定した人物と前記検出部が検出した文字列とを対応付けて前記記憶部へ記憶させる構成としてもよい。
また、本発明においては、前記検出部は、前記整理対象の属性を検出し、前記記憶制御部は、検出した属性も対応付ける構成としてもよい。
In the present invention, the detection unit detects a character string from the second image, and the storage control unit associates the person specified by the specifying unit with the character string detected by the detection unit. It is good also as a structure memorize | stored in the said memory | storage part.
In the present invention, the detection unit may detect the attribute to be organized, and the storage control unit may associate the detected attribute with each other.
また、本発明は、コンピュータを、第1画像内にある顔及び整理対象を検出する検出部と、前記検出部が検出した前記整理対象の画像である第2画像を生成する生成部と、前記検出部が検出した顔に対応した人物を特定する特定部と、前記特定部が特定した人物と前記生成部が生成した第2画像とを対応付けて記憶部に記憶させる記憶制御部として機能させるためのプログラムを提供する。 Further, the present invention provides a computer, a detection unit that detects a face and an organizing target in the first image, a generating unit that generates a second image that is the organizing target image detected by the detecting unit, A specifying unit that specifies a person corresponding to the face detected by the detecting unit, a person specified by the specifying unit, and the second image generated by the generating unit are associated with each other and stored in the storage unit. A program is provided.
本発明によれば、人物と物との対応付けを容易にすることができる。 According to the present invention, association between a person and an object can be facilitated.
[実施形態]
(実施形態の構成)
図1は、本発明の一実施形態に係る情報処理装置10のハードウェア構成の一例を示したブロック図である。本実施形態に係る情報処理装置10は、撮影機能を備えたスマートフォンである。なお、情報処理装置10は、スマートフォンに限定されるものではなく、デジタルカメラ、撮影機能を備えたタブレット端末、フィーチャーフォン又は腕時計型のウェアラブルデバイスなどあってもよい。
[Embodiment]
(Configuration of the embodiment)
FIG. 1 is a block diagram showing an example of a hardware configuration of an
通信部105は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。
The
音声処理部107は、マイクロフォンとスピーカを有している。音声処理部107は、情報処理装置同士が音声通話を行う場合、通話相手の音声に係るデジタル信号が通信部105から供給されると、供給されたデジタル信号をアナログ信号に変換する。このアナログ信号は、スピーカへ供給され、スピーカからは、通話相手の音声が放音される。また、音声処理部107は、マイクロフォンが音声を収音すると、収音した音声をデジタル信号に変換する。音声処理部107は、情報処理装置で音声通話を行う場合、ユーザの音声を変換したデジタル信号を通信部105へ供給する。このデジタル信号は、通信部105から通信網2へ送信され、通話相手の情報処理装置へ送信される。
The
撮像部109は、撮像素子(CMOS又はCCDなど)と、撮像素子に像を結像する光学系を備えている。撮像部109は、撮像素子で得られた画像を表す画像データを生成し、生成した画像データを出力する。
The
タッチパネル103は、表示装置(例えば液晶ディスプレイ)と、表示装置の表示面において指の接触を検出するセンサとを組み合わせた装置であり、ユーザにより操作される操作部の一例である。タッチパネル103は、文字、GUI(Graphical User Interface)、撮像部109が生成する画像、情報処理装置10を操作するためのメニュー画面などを表示装置で表示する。また、タッチパネル103は、ユーザが指で触れた位置をセンサで検出する。制御部101は、タッチパネル103が検出した位置と、タッチパネルに表示されている画面に応じてユーザの操作を特定し、特定した操作に応じて各部の制御を行い、各種処理を実行する。
The
記憶部102は、不揮発性メモリを有しており、オペレーティングシステムのプログラム、アプリケーションプログラム、画像データから抽出した画像、人間の顔の特徴点を表す特徴点データなどを記憶する。本実施形態においては、記憶部102はアプリケーションプログラムとして、画像データが表す画像にある予め定められた整理対象物と顔を検出し、検出した顔に対応した人物と、検出した整理対象物の画像とを対応付けて記憶する機能を実現するアプリケーションプログラムを記憶している。また、記憶部102は、本実施形態においては、特徴点データとして、情報処理装置10のユーザの子供の顔の特徴点データを記憶しており、兄弟の兄の顔の特徴点データと兄の名前を対応付けて記憶し、弟の顔の特徴点データと弟の名前を対応付けて記憶している。
The
制御部101は、CPU(Central Processing Unit)とRAM(Random Access Memory)を有する。本発明に係る機能は、CPU、RAMなどのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、CPUが演算を行い、各部の制御や、RAM及び記憶部102におけるデータの読み出し及び/又は書き込みを制御することで実現される。CPUは、記憶部102に記憶されているオペレーティングシステムのプログラムを実行し、情報処理装置10の全体を制御する。CPUがオペレーティングシステムのプログラムを実行すると、アプリケーションプログラムを実行することが可能となる。
The
図2は、情報処理装置10において実現する機能のうち、本発明に係る機能の構成を示したブロック図である。検出部1001は、撮像部109が出力した画像データが表す画像にある顔と整理対象物を検出する。生成部1002は、検出部1001が検出した整理対象物を表す画像データを生成する。特定部1003は、検出部1001が検出した顔に対応した人物を特定する。記憶制御部1004は、特定部1003が特定した人物と生成部1002が生成した画像データを対応付けて記憶部102に記憶させる。
FIG. 2 is a block diagram showing a configuration of functions according to the present invention among the functions realized in the
(実施形態の動作例)
次に本実施形態の動作例について説明する。なお、以下の説明においては、情報処理装置10が上述のアプリケーションプログラムを実行しており、整理対象物は、文章が記載された紙の配布物である場合を想定して動作例の説明を行う。
(Operation example of embodiment)
Next, an operation example of this embodiment will be described. In the following description, an operation example will be described on the assumption that the
情報処理装置10が上述のアプリケーションプログラムを実行していると、撮像部109の撮像素子が生成する画像がタッチパネル103に表示される。例えば、情報処理装置10のユーザである母親は、学校から兄に対して配布された紙の配布物を兄と対応付けて記録する場合、図3に例示したように兄に配布物を持たせる。そして母親は、兄と配布物がタッチパネル103に表示されるように情報処理装置10を構え、タッチパネル103において、兄と配布物を撮影する操作を行う。
When the
制御部101は、撮影の操作が行われると図4に示した処理を行う。まず制御部101は、ユーザの操作に応じて撮像部109を制御し、兄と配布物を撮影する(ステップSA1)。制御部101は、撮影した兄と配布物を含む画像の画像データ(第1画像)を取得する(ステップSA2)。制御部101は、撮像部109が生成した画像データを記憶部102に記憶させる(ステップSA3)。
When the photographing operation is performed, the
制御部101(検出部1001)は、記憶部102に記憶された画像データを解析し、画像データが表す画像中にある顔の部分を検出する(ステップSA4)。次に制御部101(特定部1003)は、検出した部分にある顔の特徴点のデータと、記憶部102に記憶されている特徴点データを照合し、周知又は公知の顔照合の技術を用い、検出した部分にある顔に対応する人物を特定する(ステップSA5)。ここで制御部101は、検出した部分にある顔の特徴点の特徴点データと、記憶部102に記憶されている兄の顔の特徴点データとが類似していると判断した場合、兄の顔の特徴点データに対応付けて記憶されている名前、即ち兄の名前を取得する。
The control unit 101 (detection unit 1001) analyzes the image data stored in the
次に制御部101(検出部1001)は、記憶部102に記憶された画像データを解析し、画像データが表す画像中にある整理対象物である配布物の部分を検出する(ステップSA6)。制御部101(生成部1002)は、検出した配布物の部分の画像の画像データ、即ち、整理対象物を表す画像の画像データ(第2画像)を生成する(ステップSA7)。
Next, the control unit 101 (detection unit 1001) analyzes the image data stored in the
制御部101(記憶制御部1004)は、取得した兄の名前、生成した整理対象物の画像データ及び撮像部109が生成した画像データの生成日時を対応付けて記憶部102に記憶させる(ステップSA8)。
The control unit 101 (storage control unit 1004) stores the acquired name of the older brother, the generated image data of the organizing object, and the generation date and time of the image data generated by the
次に情報処理装置10のユーザである母親は、弟に対して学校から配布された紙の配布物を弟と対応付けて記録する場合、弟に配布物を持たせる。そして母親は、弟と配布物がタッチパネル103に表示されるように情報処理装置10を構え、タッチパネル103において、弟と配布物を撮影する操作を行う。制御部101は、ユーザの操作に応じて撮像部109を制御し、弟と配布物を撮影する(ステップSA1)。制御部101は、撮影した弟と配布物を含む画像の画像データ(第1画像)を取得する(ステップSA2)。制御部101は、撮像部109が生成した画像データを記憶部102に記憶させる(ステップSA3)。
Next, when the mother who is the user of the
制御部101(検出部1001)は、記憶部102に記憶された画像データを解析し、画像データが表す画像中にある顔の部分を検出する(ステップSA4)。次に制御部101(特定部1003)は、検出した部分にある顔の特徴点のデータと、記憶部102に記憶されている特徴点データを照合し、検出した部分にある顔に対応する人物を特定する(ステップSA5)。ここで制御部101は、特定した部分にある顔の特徴点の特徴点データと、記憶部102に記憶されている弟の顔の特徴点データとが類似していると判断した場合、弟の顔の特徴点データに対応付けて記憶されている名前、即ち弟の名前を取得する。
The control unit 101 (detection unit 1001) analyzes the image data stored in the
次に制御部101(検出部1001)は、記憶部102に記憶された画像データを解析し、画像データが表す画像中にある整理対象物である配布物の部分を検出する(ステップSA6)。制御部101は、検出した配布物の部分の画像の画像データ、即ち、整理対象物を表す画像の画像データ(第2画像)を生成する(ステップSA7)。
Next, the control unit 101 (detection unit 1001) analyzes the image data stored in the
制御部101(記憶制御部1004)は、取得した弟の名前、生成した整理対象物の画像データ及び撮像部109が生成した画像データの生成日時とを対応付けて記憶部102に記憶させる(ステップSA8)。
The control unit 101 (storage control unit 1004) causes the
母親は、兄に対して配布された配布物を検索する場合、タッチパネル103において兄の名前を入力し、兄の名前に対応付けて記憶された画像データの検索を指示する操作を行う。制御部101は、ユーザの操作に応じて、入力された兄の名前に対応付けて記憶されている画像データを記憶部102において検索し、検索でヒットした画像データのサムネイル画像が表示されるようにタッチパネル103を制御する。母親が、表示されたサムネイル画像のうちの一つをタップする操作をタッチパネル103において行うと、制御部101は、タップされた位置にあるサムネイル画像が全画面表示されるようにタッチパネル103を制御する。
When searching for a distribution distributed to the older brother, the mother inputs the older brother's name on the
これにより、母親は、兄に対して配布された学校からの配布物を容易に探し出して見ることができる。なお、弟に対して配布された配布物を見る場合、タッチパネル103において弟の名前を入力し、弟の名前に対応付けて記憶された画像データの検索を指示する操作を行えば、兄の場合と同様に、弟に対して配布された学校からの配布物を容易に探し出して見ることができる。
As a result, the mother can easily find and view the distribution from the school distributed to her brother. In addition, when viewing the distribution distributed to the younger brother, the name of the younger brother is input on the
[変形例]
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよい。なお、上述した実施形態及び以下の変形例は、各々を組み合わせてもよい。
[Modification]
As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above, It can implement with another various form. For example, the present invention may be implemented by modifying the above-described embodiment as follows. In addition, you may combine each of embodiment mentioned above and the following modifications.
上述した実施形態においては、整理対象物は文章が記載された紙の配布物となっているが、整理対象物は紙の配布物以外の物であってもよく、例えば、整理対象物は衣類であってもよい。この構成によれば、人物の名前と衣類の画像とが対応付けて記憶部102に記憶される。これにより、例えば、兄の名前と兄が着用する衣類の画像とを対応付けて記憶し、兄が着用する衣類を容易に知ることができる。
In the embodiment described above, the organizing target is a paper distribution in which text is written, but the organizing target may be other than a paper distribution, for example, the organizing target is clothing. It may be. According to this configuration, the name of the person and the clothing image are stored in the
本発明においては、制御部101は、画像データが表す画像において手で持たれている物体を整理対象物として検出してもよい。この構成によれば、人物の名前と、撮影された人物が手で持っている物の画像とが対応付けて記憶部102に記憶される。これにより、例えば、兄の名前と兄が所有する本の画像とを対応付けて記憶し、兄の所有する本を容易に知ることができる。
In the present invention, the
本発明においては、制御部101は、画像データが表す画像において撮影された人物が着用している衣類を整理対象物として検出してもよい。この構成によれば、人物の名前と、撮影された人物が着用している衣類の画像とが対応付けて記憶部102に記憶される。これにより、例えば、兄の名前と兄が着用する衣類の画像とを対応付けて記憶し、兄が着用する衣類を容易に知ることができる。
In the present invention, the
上述した実施形態においては、整理対象物が予め設定されている構成となっているが、整理対象物を情報処理装置10のユーザが設定する構成としてもよい。例えば、情報処理装置10のユーザは、人物及び整理対象物がタッチパネル103に表示されるように情報処理装置10を構え、撮影の操作を行う前に、整理対象物が表示されている領域を指で指定する操作を行う。この後、ユーザが撮影を指示する操作を行うと、撮像部109は、撮影した人物と整理対象物を含む画像データ(第1画像)を生成する。制御部101は、撮像部109が生成した画像データを記憶部102に記憶させる。制御部101は、撮影された顔に対応する名前を特定した後、ユーザが指定した領域内の部分の画像の画像データを、整理対象物の画像を表す画像データ(第2画像)として生成する。この構成によれば、例えば、テーブルに置かれた物体が写る領域をユーザが指定すると、テーブルに置かれた物体の画像データが整理対象物の画像を表す画像データとして記憶され、撮影される人物が整理対象物を手に持たなくとも、撮影された人物の名前と整理対象物の画像とを対応付けて記憶することができる。
In the embodiment described above, the arrangement target is set in advance, but the arrangement target may be set by the user of the
上述した実施形態においては、整理対象物は文章が記載された紙の配布物となっているが、撮影される人物毎に整理対象物が異なる構成としてもよい。例えば、上述した兄を撮影した場合、制御部101は、紙の配布物を整理対象物として設定し、上述した弟を撮影した場合、衣類を整理対象物として設定してもよい。
In the embodiment described above, the organizing target is a paper distribution in which text is written, but the organizing target may be different for each person to be photographed. For example, when the above-described brother is photographed, the
本発明においては、情報処理装置10は、一つの画像データから複数の顔の部分と複数の整理対象物の部分を検出し、検出した顔に対応する人物の名前と、検出した整理対象部の画像とを対応付けて記憶するようにしてもよい。例えば、制御部101は、学校からの配布物を持った兄と学校からの配布物を持った弟が並んでいる状態を撮像部109が撮影した場合、撮像部109が生成した画像データから、兄の顔の部分と弟の顔の部分を検出する。また、制御部101は、撮像部109が生成した画像データから、兄が持っている配布物を表す画像の画像データと、弟が持っている配布物を表す画像の画像データを生成する。制御部101は、兄の名前と、兄の顔に近い整理対象物の画像の画像データとを対応付けて記憶部102に記憶させ、弟の名前と、弟の顔に近い整理対象物の画像の画像データとを対応付けて記憶部102に記憶させる。この構成によれば、一つの画像から、人物毎に整理対象物を対応付けることができる。
In the present invention, the
本発明においては、情報処理装置10は、一つの画像データから複数の整理対象物の部分を検出し、検出した顔に対応する人物の名前と、検出した複数の整理対象物の画像とを対応付けて記憶するようにしてもよい。例えば、制御部101は、学校からの2つの配布物を持った兄を撮像部109で撮影した場合、撮像部109が生成した画像データから、兄の顔の部分を検出する。また、制御部101は、撮像部109が生成した画像データから、兄が右手に持っている配布物を表す画像の画像データと、左手に持っているもう一つの配布物を表す画像の画像データを生成する。制御部101は、兄の名前と、兄が右手に持っていた整理対象物の画像の画像データとを対応付けて記憶部102に記憶させ、さらに兄の名前と、兄が左手に持っていた整理対象物の画像の画像データとを対応付けて記憶部102に記憶させる。この構成によれば、一つの画像から、一人の人物に複数の整理対象物を対応付けることができる。
In the present invention, the
本発明においては、情報処理装置10は、一つの画像データから複数の顔と一つの整理対象物の部分を検出し、検出した顔に対応する人物の名前と、検出した整理対象物の画像とを対応付けて記憶するようにしてもよい。例えば、制御部101は、賞状、兄及び弟を撮像部109で撮影した場合、撮像部109が生成した画像データから、兄の顔の部分と弟の顔の部分を検出する。また、制御部101は、撮像部109が生成した画像データから、整理対象物である賞状を表す画像の画像データを生成する。制御部101は、兄の名前と、賞状の画像の画像データとを対応付けて記憶部102に記憶させ、さらに弟の名前と、賞状の画像の画像データとを対応付けて記憶部102に記憶させる。この構成によれば、一つの画像から、複数の人物のそれぞれに整理対象物を対応付けることができる。
In the present invention, the
本発明においては、情報処理装置10は、顔と整理対象物の位置関係に応じて、整理対象物に対応付けられる人物を決定するようにしてもよい。例えば、情報処理装置10は、父親の顔の特徴点データと兄の名前を対応付けて記憶し、さらに父親の顔の特徴点データに弟の名前を対応付けて記憶する。制御部101は、配布物と父親を撮像部109が撮影した場合、撮像部109が生成した画像データから、父親の顔の部分を検出する。また、制御部101は、撮像部109が生成した画像データから、整理対象物である配布物を表す画像の画像データを生成する。制御部101は、顔の部分に対する整理対象物の位置を特定する。制御部101は、検出した部分にある顔の特徴点の特徴点データと、記憶部102に記憶されている父親の顔の特徴点データとが類似していると判断した場合、父親の顔の特徴点データに対応付けて記憶されている名前、即ち兄の名前と弟の名前を取得する。制御部101は、整理対象物である配布物が父親の顔より右側にある場合、兄の名前と整理対象物の画像データを対応付けて記憶部102に記憶させ、整理対象物である配布物が父親の顔より左側にある場合、弟の名前と整理対象物の画像データを対応付けて記憶部102に記憶させる。この構成によれば、整理対象物の位置に応じて、整理対象物に対応付けられる人物を変えることができる。
In the present invention, the
本発明においては、記憶部102は、父親の顔の特徴点データに対して兄の名前を記憶し、母親の顔の特徴点データに対して弟の名前を記憶してもよい。この構成の場合、情報処理装置10は、配布物を持った父親を撮影すると、兄の名前と配布物の画像の画像データとを対応付けて記憶し、配布物を持った母親を撮影すると、弟の名前と配布物の画像の画像データとを対応付けて記憶する。この構成によれば、兄及び/又は弟がいなくても、兄及び/又は弟に配布された配布物の画像を兄又は弟に対応付けて記憶させることができる。
In the present invention, the
本発明においては、制御部101は、ステップSA4で検出した部分にある顔の特徴点データに類似する特徴点データが記憶部102に記憶されていない場合、ステップSA4で検出した部分にある顔の特徴点データに対応する人物の名前の入力をユーザに促し、入力された名前と、ステップSA4で特定した部分にある顔の特徴点データとを対応付けて記憶するようにしてもよい。
In the present invention, if the feature point data similar to the feature point data of the face in the part detected in step SA4 is not stored in the
本発明においては、サムネイル画像をタップした後で表示された整理対象物の画像に対し、ユーザが指又はスタイラスペンでタッチパネル103に対して書き込みの動作を行うと、整理対処物の画像に対して指又はスタイラスペンの移動軌跡に応じた画像を追記するようにしてもよい。
In the present invention, when the user performs a writing operation on the
本発明においては、制御部101は、文章が記載されている印刷物が整理対象物である場合、整理対象物の画像に対して文字認識を行い、整理対象物に記載されている文字列を検出して記憶してもよい。また、制御部101は、整理対象物の画像に対して文字認識を行う場合、予め定められた文字列を検出し、検出した文字列に応じてユーザに通知を行う構成としてもよい。例えば、制御部101(検出部1001)は、学校からの配布物を整理対象物とした場合、配布物に記載されている運動会、遠足、健康診断、授業参観などの学校行事に係る文字列、学校行事に係る日時及び場所に係る文字列などを検出する。制御部101は、例えば、「○月×日」という文字列と、「運動会」という文字列を抽出した場合、運動会があることを○月×日の前日にユーザに通知する。
In the present invention, when the printed matter on which the text is described is the organizing target, the
なお、制御部101は、通知を情報処理装置10のユーザ以外に行うようにしてもよい。例えば、記憶部102は、兄の顔の特徴点データに対して兄の電子メールアドレスを記憶する。制御部101は、兄の名前と対応付けて記憶した整理対象物の画像データが表す画像から、「○月×日」という文字列と、「運動会」という文字列を抽出した場合、兄の名前に対応付けられている電子メールアドレスを宛先として、本文に「○月×日」という文字列と、「運動会」という文字列を記載した電子メールを送信する。
Note that the
また、電子メールを送信する場合、予め定められた文字列毎に、電子メールの送信先を設定する構成であってもよい。例えば、「運動会」という文字列に対して、兄弟の祖父母、父、母、兄弟の電子メールアドレスを設定し、「授業参観」という文字列に対して、兄弟の父と母の電子メールアドレスを設定するようにしてもよい。この構成の場合、情報処理装置10が運動会の案内の配布物を撮影すると、運動会についての通知が兄弟の祖父母、父、母、兄弟へ電子メールで送られ、授業参観の案内の配布物撮影すると、授業参観についての通知を兄弟の父母へ電子メール送ることができ、配布物の内容によって通知先を異ならせることができる。なお、制御部101は、抽出した文字列に基づいて、スケジュールを管理するアプリケーションプログラムにスケジュールを登録する構成としてもよい。
Moreover, when transmitting an electronic mail, the structure which sets the transmission destination of an electronic mail for every predetermined character string may be sufficient. For example, set the siblings' grandparents, father, mother, siblings e-mail addresses for the string "athletic meet", and the siblings father and mother e-mail addresses for the string "visiting class". You may make it set. In the case of this configuration, when the
本発明においては、整理対象物の画像から文字列を検出する構成においては、整理対象物の画像から数値を検出し、検出した数値に基づいてグラフを作成してもよい。例えば、制御部101は、整理対象物をテスト用紙とし、テストの採点結果である点数の文字列を整理対象物の画像から検出し、検出した点数を整理対象物の画像データと対応付けて記憶する。制御部101は、整理対象物の画像データ及び点数を記憶した日時を横軸、点数を縦軸としたグラフを作成し、整理対象物の画像データに対応付けて記憶した点数をグラフ上にプロットしてタッチパネル103に表示する。この構成によれば、テストの採点結果を自動的にグラフにして表示することができる。
In the present invention, in a configuration in which a character string is detected from the image of the organizing object, a numerical value may be detected from the image of the organizing object, and a graph may be created based on the detected numerical value. For example, the
また、本発明においては、整理対象物をテスト用紙とし、整理対象物から文字列を検出する場合、検出した文字列に属性を付加する構成としてもよい。例えば、制御部101は、テスト用紙の画像から文字列を検出し、検出した文字列が手書きの黒の文字列である場合には、文字列に対して黒という属性と手書きという属性を付与する。また、制御部101は、テスト用紙の画像から検出した文字列が、フォントの黒の文字列である場合、文字列に対して黒という属性とフォントという属性を付与し、抽出した文字列が手書きの赤の文字列である場合には、文字列に対して赤という属性と手書きという属性を付与する。制御部101は、抽出した文字列及び属性を記憶部102に記憶させる。制御部101は、ユーザの操作に応じて、例えば、黒という属性とフォントという属性が付与されている文字列を記憶部102に記憶されている文字列から抽出し、抽出した文字列をタッチパネル103に表示させる。テスト用紙においては、問題文は黒のフォントの文字列であるため、この構成によれば、テストの問題だけを抽出して表示することが可能であり、テストの復習を行うことができる。
なお、本変形例においては、情報処理装置10は、テストの問題文の文字列を表示する際に問題文毎にチェックボックスを共に表示し、チェックボックスがマークされた問題文については、記憶部102から消去するか又はタッチパネル103に表示しないようにしてもよい。
Moreover, in this invention, it is good also as a structure which adds an attribute to the detected character string, when an arrangement target object is made into a test paper and a character string is detected from the arrangement object. For example, the
In the present modification, the
本発明においては、整理対象物が学校からの配布物である場合、整理対象物の画像として生成部1002が生成した画像に対し、予め定められた文字列を追記する構成としてもよい。例えば、記憶部102は、兄弟の保護者の氏名と住所を予め記憶し、学校からの配布物において、保護者の記入欄、住所の記入欄などがある場合、記憶されている保護者の氏名を配布物の画像の保護者の記入欄に追記し、記憶されている住所を住所の記入欄に追記してもよい。この構成によれば、保護者の氏名及び住所が記載された画像をプリンタへ出力して印刷すれば、手書きで保護者の氏名と住所を記載することがなく、自動的に記載を行うことができる。
また、この変形例においては、制御部101は、配布物の画像をタッチパネル103に表示したときに、記入欄に追記する文字列の候補を表示し、表示した文字列の中からユーザが選択した文字列を記入欄に追記するようにしてもよい。また、制御部101は、整理対象物の画像をプリンタへ出力して印刷する場合、整理対象物の画像、記入欄に記載する氏名の文字列、記入欄に記載する住所の文字列をプリンタへ出力し、差し込み印刷の技術により、記入欄に指名と住所を印刷して出力するようにしてもよい。
In the present invention, when the organizing object is a distribution object from a school, a predetermined character string may be added to the image generated by the
In this modified example, when the image of the distribution is displayed on the
本発明においては、制御部101は、記憶部102に記憶された画像データ又は整理対象物の画像データを解析して整理対象物の属性を検出し、検出した属性も名前及び整理対象物の画像データに対応付けて記憶部102に記憶させるようにしてもよい。例えば、制御部101は、整理対象物が衣類である場合、スーツ、コート、セーターなどの衣類の種類を属性として検出する。この場合、人物に対応付けられた整理対象物を検索する際に、属性を指定するようにすれば、情報処理装置10は、例えば、コートの画像だけを選択して表示するというように、特定の種類の衣類のみを表示することができる。
In the present invention, the
情報処理装置10がスマートフォン、タブレット端末又はフィーチャーフォンであり、撮像部109がインカメラとアウトカメラを備える構成である場合、インカメラでユーザの顔を撮影し、アウトカメラで整理対象物を撮影する構成としてもよい。この構成の場合、制御部101は、インカメラが生成した画像データから顔の部分を検出し、検出した部分にある顔に対応する名前を取得する。また、制御部101は、アウトカメラが生成した画像データから整理対象物の部分を検出し、検出した部分にある整理対象物の画像データを生成する。そして制御部101は、取得した名前と生成された整理対象物の画像データを対応付けて記憶部102に記憶させる。この構成によれば、整理対象物を手に持たなくても、人物と整理対象物とを対応付けることができる。
When the
本発明においては、情報処理装置10は、他のコンピュータ装置から通信で取得した画像データ又は外付けの記録媒体から取得した画像データに対してステップSA3〜ステップSA8以降の処理を行うようにしてもよい。また、撮像部109を有していないコンピュータ装置が、他のコンピュータ装置から通信で取得した画像データ又は外付けの記録媒体から取得した画像データに対してステップSA3〜ステップSA8以降の処理を行うようにしてもよい。この構成によれば、撮像部109を備えていないコンピュータ装置においても、人物と物との対応付けを容易に行うことができる。
In the present invention, the
上述した機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。例えば、本発明の一実施形態における情報処理装置は、本発明の処理を行うコンピュータとして機能してもよい。なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。情報処理装置10のハードウェア構成は、各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
The functional blocks (configuration units) described above are realized by any combination of hardware and / or software. Further, the means for realizing each functional block is not particularly limited. That is, each functional block may be realized by one device physically and / or logically coupled, and two or more devices physically and / or logically separated may be directly and / or indirectly. (For example, wired and / or wireless) and may be realized by these plural devices. For example, the information processing apparatus according to an embodiment of the present invention may function as a computer that performs the processing of the present invention. In the following description, the term “apparatus” can be read as a circuit, a device, a unit, or the like. The hardware configuration of the
また、制御部101は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、記憶部102及び/又は通信部105からRAMに読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、情報処理装置10の制御部101は、RAMに格納され、CPUで動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのCPUで実行される旨を説明してきたが、2以上のプロセッサCPUにより同時又は逐次に実行されてもよい。制御部101は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。
Further, the
RAMは、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。RAMは、本発明の一実施形態に係る機能を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The RAM may be called a register, a cache, a main memory (main storage device), or the like. The RAM can store a program (program code), a software module, and the like that can be executed to perform the functions according to the embodiment of the present invention.
また、情報処理装置10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、制御部101は、これらのハードウェアの少なくとも1つで実装されてもよい。
The
本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。 As long as there is no contradiction, the order of the processing procedures, sequences, flowcharts, and the like of each aspect / embodiment described in this specification may be changed. For example, the methods described herein present the elements of the various steps in an exemplary order and are not limited to the specific order presented.
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 Input / output information or the like may be stored in a specific location (for example, a memory) or may be managed by a management table. Input / output information and the like can be overwritten, updated, or additionally written. The output information or the like may be deleted. The input information or the like may be transmitted to another device.
本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect / embodiment described in this specification may be used independently, may be used in combination, or may be switched according to execution. In addition, notification of predetermined information (for example, notification of being “X”) is not limited to explicitly performed, but is performed implicitly (for example, notification of the predetermined information is not performed). Also good.
プログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Regardless of whether the program is called software, firmware, middleware, microcode, hardware description language, or another name, the instruction, instruction set, code, code segment, program code, subprogram, software module, application Software applications, software packages, routines, subroutines, objects, executables, threads of execution, procedures, functions, etc. should be interpreted broadly.
また、プログラム、命令などは、伝送媒体を介して送受信されてもよい。例えば、プログラムが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。 Further, programs, instructions, etc. may be transmitted / received via a transmission medium. For example, the program may use websites, servers, or other devices using wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave. When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission media.
本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。
Information, signals, etc. described herein may be represented using any of a variety of different technologies. For example, data, commands, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these May be represented by a combination of
Note that the terms described in this specification and / or terms necessary for understanding this specification may be replaced with terms having the same or similar meaning.
情報処理装置10は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。
The
本明細書で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。 As used herein, the terms “determining” and “determining” may encompass a wide variety of actions. “Judgment” and “determination” are, for example, judgment, calculation, calculation, processing, derivation, investigating, looking up (eg, table) , Searching in a database or another data structure), considering ascertaining as “determining”, “deciding”, and the like. In addition, “determination” and “determination” are reception (for example, receiving information), transmission (for example, transmitting information), input (input), output (output), and access. (Accessing) (eg, accessing data in a memory) may be considered as “determined” or “determined”. In addition, “determination” and “determination” means that “resolving”, “selecting”, “choosing”, “establishing”, and “comparing” are regarded as “determining” and “determining”. May be included. In other words, “determination” and “determination” may include considering some operation as “determination” and “determination”.
「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、あるいはこれらの組み合わせであってもよい。本明細書で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及び/又はプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」又は「結合」されると考えることができる。 The terms “connected”, “coupled”, or any variation thereof, means any direct or indirect connection or coupling between two or more elements and It can include the presence of one or more intermediate elements between two “connected” or “coupled” elements. The coupling or connection between the elements may be physical, logical, or a combination thereof. As used herein, the two elements are radio frequency by using one or more wires, cables and / or printed electrical connections, and as some non-limiting and non-inclusive examples By using electromagnetic energy, such as electromagnetic energy having a wavelength in the region, microwave region, and light (both visible and invisible) region, it can be considered to be “connected” or “coupled” to each other.
本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 As used herein, the phrase “based on” does not mean “based only on,” unless expressly specified otherwise. In other words, the phrase “based on” means both “based only on” and “based at least on.”
本明細書で使用する「第1」、「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみがそこで採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 Any reference to elements using the designations “first”, “second”, etc. as used herein does not generally limit the amount or order of those elements. These designations can be used herein as a convenient way to distinguish between two or more elements. Thus, a reference to the first and second elements does not mean that only two elements can be employed there, or that in some way the first element must precede the second element.
「含む(including)」、「含んでいる(comprising)」、及びそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 As long as the terms “including”, “comprising”, and variations thereof are used herein or in the claims, these terms are inclusive of the term “comprising”. Intended to be Further, the term “or” as used herein or in the claims is not intended to be an exclusive OR.
以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。 Although the present invention has been described in detail above, it will be apparent to those skilled in the art that the present invention is not limited to the embodiments described herein. The present invention can be implemented as modified and changed modes without departing from the spirit and scope of the present invention defined by the description of the scope of claims. Therefore, the description of the present specification is for illustrative purposes and does not have any limiting meaning to the present invention.
10…情報処理装置、101…制御部、102…記憶部、105…通信部、107…音声処理部、109…撮像部、1001…検出部、1002…生成部、1003…特定部、1004…記憶制御部。
DESCRIPTION OF
Claims (10)
前記検出部が検出した前記整理対象の画像である第2画像を生成する生成部と、
前記検出部が検出した顔に対応した人物を特定する特定部と、
前記特定部が特定した人物と前記生成部が生成した第2画像とを対応付けて記憶部に記憶させる記憶制御部と
を備える情報処理装置。 A detection unit for detecting a face and an arrangement target in the first image;
A generation unit that generates a second image that is the image to be organized detected by the detection unit;
A specifying unit for specifying a person corresponding to the face detected by the detecting unit;
An information processing apparatus comprising: a storage control unit that associates the person specified by the specifying unit with the second image generated by the generation unit and stores the second image in the storage unit.
請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the detection unit detects an object held or worn by a hand in the first image as the organizing target.
前記検出部は、前記特定部が特定した人物に設定されている前記整理対象を検出する
請求項1又は請求項2に記載の情報処理装置。 By setting the organizing target for each person,
The information processing apparatus according to claim 1, wherein the detection unit detects the organizing target set for the person specified by the specifying unit.
請求項1から請求項3のいずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 3, wherein the organization target is set according to a user operation.
前記記憶制御部は、前記特定部が特定した一又は複数の人物と前記第2画像とを対応付けて前記記憶部に記憶させる
請求項1から請求項4のいずれか一項に記載の情報処理装置。 The identifying unit identifies a person corresponding to each face detected by the detecting unit when the detecting unit detects a plurality of faces from the first image;
The information processing according to any one of claims 1 to 4, wherein the storage control unit stores the one or more persons specified by the specifying unit and the second image in association with each other in the storage unit. apparatus.
前記記憶制御部は、前記生成部が特定した一又は複数の前記第2画像と前記特定部が特定した人物とを対応付けて前記記憶部に記憶させる
請求項1から請求項4のいずれか一項に記載の情報処理装置。 When the detecting unit detects a plurality of organizing objects from the first image, the generating unit generates the second image for each of the plurality of organizing objects detected by the detecting unit,
The storage control unit stores the one or more second images specified by the generation unit and the person specified by the specification unit in association with each other and stores them in the storage unit. The information processing apparatus according to item.
請求項1から請求項6のいずれか一項に記載の情報処理装置。 The specifying unit specifies the person according to a positional relationship between a face position detected by the detection unit in the first image and the organizing target detected by the detection unit in the first image. The information processing apparatus according to any one of claims 1 to 6.
請求項1から請求項7のいずれか一項に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein a person corresponding to the face detected by the detection unit is set according to a user operation.
前記記憶制御部は、前記特定部が特定した人物と前記検出部が検出した文字列とを対応付けて前記記憶部へ記憶させる
請求項1から請求項8のいずれか一項に記載の情報処理装置。 The detection unit detects a character string from the second image,
The information processing according to any one of claims 1 to 8, wherein the storage control unit stores the person specified by the specifying unit and the character string detected by the detection unit in association with each other in the storage unit. apparatus.
第1画像内にある顔及び整理対象を検出する検出部と、
前記検出部が検出した前記整理対象の画像である第2画像を生成する生成部と、
前記検出部が検出した顔に対応した人物を特定する特定部と、
前記特定部が特定した人物と前記生成部が生成した第2画像とを対応付けて記憶部に記憶させる記憶制御部
として機能させるためのプログラム。 Computer
A detection unit for detecting a face and an arrangement target in the first image;
A generation unit that generates a second image that is the image to be organized detected by the detection unit;
A specifying unit for specifying a person corresponding to the face detected by the detecting unit;
The program for functioning as a storage control unit that stores the person specified by the specifying unit and the second image generated by the generation unit in association with each other.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016159131A JP2018028716A (en) | 2016-08-15 | 2016-08-15 | Information processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016159131A JP2018028716A (en) | 2016-08-15 | 2016-08-15 | Information processing apparatus and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018028716A true JP2018028716A (en) | 2018-02-22 |
Family
ID=61248410
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016159131A Pending JP2018028716A (en) | 2016-08-15 | 2016-08-15 | Information processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018028716A (en) |
-
2016
- 2016-08-15 JP JP2016159131A patent/JP2018028716A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9836115B2 (en) | Information processing device, information processing method, and program | |
CN105320404B (en) | For executing the device and method of function | |
EP2363793A2 (en) | Information processing apparatus, information processing method, and program | |
KR20150024526A (en) | Information Obtaining Method and Apparatus | |
CN110456953A (en) | File interface switching method and terminal device | |
EP3190527A1 (en) | Multimedia data processing method of electronic device and electronic device thereof | |
CN109857494A (en) | A kind of message prompt method and terminal device | |
CN109471690A (en) | A kind of message display method and terminal device | |
WO2018004200A1 (en) | Electronic device and information providing method thereof | |
CN111192005A (en) | Government affair service processing method and device, computer equipment and readable storage medium | |
CN110069188A (en) | Identification display method and terminal device | |
CN109857876A (en) | A kind of information display method and terminal device | |
CN110232174A (en) | A kind of content chooses method and terminal device | |
CN109815462A (en) | A kind of document creation method and terminal device | |
CN109542311A (en) | A kind of document handling method and electronic equipment | |
CN108845732A (en) | A kind of information display method and terminal device | |
CN111444314A (en) | Information processing method and electronic equipment | |
US10915778B2 (en) | User interface framework for multi-selection and operation of non-consecutive segmented information | |
US11696017B2 (en) | User interface for managing audible descriptions for visual media | |
CN109634508A (en) | A kind of user information loading method and device | |
CN109460200A (en) | A kind of information flag method and terminal device | |
CN109522523A (en) | A kind of method and terminal device showing outline information | |
JP2018028716A (en) | Information processing apparatus and program | |
CN112732133B (en) | Message processing method and device, electronic equipment and storage medium | |
CN115134316A (en) | Topic display method, device, terminal and storage medium |