JP2018028716A - Information processing apparatus and program - Google Patents

Information processing apparatus and program Download PDF

Info

Publication number
JP2018028716A
JP2018028716A JP2016159131A JP2016159131A JP2018028716A JP 2018028716 A JP2018028716 A JP 2018028716A JP 2016159131 A JP2016159131 A JP 2016159131A JP 2016159131 A JP2016159131 A JP 2016159131A JP 2018028716 A JP2018028716 A JP 2018028716A
Authority
JP
Japan
Prior art keywords
unit
image
information processing
processing apparatus
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016159131A
Other languages
Japanese (ja)
Inventor
明史 若杉
Akihito Wakasugi
明史 若杉
修弥 和田
Shuya Wada
修弥 和田
健太郎 遠藤
Kentaro Endo
健太郎 遠藤
千弘 湊
Chihiro Minato
千弘 湊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2016159131A priority Critical patent/JP2018028716A/en
Publication of JP2018028716A publication Critical patent/JP2018028716A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an information processing apparatus and a program that facilitate association of a person with an object.SOLUTION: In an information processing apparatus, an imaging part 109 picks up an image of a person and a handout and creates image data capturing the person and handout. A control part 101 detects, with a detection part 1001, the face and the handout present in an image shown by the image data, and creates, with a creation part 1002, image data showing an image of the handout. The control part 101 specifies, with a specification part 1003, a name corresponding to the detected face, and stores, in a storage part 102, the specified name and the image data showing the image of the handout in association with each other.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置及びプログラムに関する。   The present invention relates to an information processing apparatus and a program.

特許文献1には、人物と入れ物を関連付ける情報処理装置が開示されている。この情報処理装置は、カメラで撮影した画像から人、入れ物及び商品を抽出する。情報処理装置は、入れ物に商品を入れる動き又は入れ物から商品を出す動きを特定すると、商品が入れられた又は出された入れ物と予め定められた関係にある人物を入れ物と関連付ける。   Patent Document 1 discloses an information processing apparatus that associates a person with a container. This information processing apparatus extracts a person, a container and a product from an image photographed by a camera. When the information processing device identifies the movement of putting a product into a container or the movement of putting out a product from a container, the information processing apparatus associates a person into which the product has been put in or a predetermined relationship with the container that has been put out.

特開2016−81174号公報Japanese Patent Laying-Open No. 2006-81174

特許文献1の情報処理装置では、人物を入れ物にしか関連付けることができず、また、関連付ける場合には特定の動作が必要となる。   In the information processing apparatus of Patent Document 1, a person can be associated only with a container, and a specific operation is required when associating a person.

本発明は、上述した背景の下になされたものであり、人物と物との対応付けを容易にすることを目的とする。   The present invention has been made under the above-described background, and an object thereof is to facilitate the association between a person and an object.

本発明は、第1画像内にある顔及び整理対象を検出する検出部と、前記検出部が検出した前記整理対象の画像である第2画像を生成する生成部と、前記検出部が検出した顔に対応した人物を特定する特定部と、前記特定部が特定した人物と前記生成部が生成した第2画像とを対応付けて記憶部に記憶させる記憶制御部とを備える情報処理装置を提供する。   According to the present invention, a detection unit that detects a face and an arrangement target in the first image, a generation unit that generates a second image that is the arrangement target image detected by the detection unit, and the detection unit detects Provided is an information processing apparatus comprising: a specifying unit that specifies a person corresponding to a face; and a storage control unit that associates and stores the person specified by the specifying unit and the second image generated by the generating unit in a storage unit To do.

本発明においては、前記検出部は、前記第1画像内において手で持たれている物又は着用されている物を前記整理対象として検出する構成としてもよい。   In this invention, the said detection part is good also as a structure which detects the thing currently hold | maintained by the hand in the said 1st image, or the thing currently worn | worn as the said organizing object.

また、本発明においては、前記人物毎に前記整理対象が設定することで、前記検出部は、前記特定部が特定した人物に設定されている前記整理対象を検出する構成としてもよい。   In the present invention, the organizing target is set for each person, and the detection unit may detect the organizing target set for the person specified by the specifying unit.

また、本発明においては、前記整理対象をユーザの操作に応じて設定する構成としてもよい。   Moreover, in this invention, it is good also as a structure which sets the said organizing object according to a user's operation.

また、本発明においては、前記特定部は、前記検出部が前記第1画像から複数の顔を検出した場合、前記検出部が検出した顔毎に対応する人物を特定し、前記記憶制御部は、前記特定部が特定した一又は複数の人物と前記第2画像とを対応付けて前記記憶部に記憶させる構成としてもよい。   In the present invention, when the detecting unit detects a plurality of faces from the first image, the specifying unit specifies a person corresponding to each face detected by the detecting unit, and the storage control unit The one or a plurality of persons specified by the specifying unit and the second image may be associated with each other and stored in the storage unit.

また、本発明においては、前記生成部は、前記検出部が前記第1画像から複数の整理対象を検出した場合、前記検出部が検出した前記複数の整理対象毎に前記第2画像を生成し、前記記憶制御部は、前記生成部が特定した一又は複数の前記第2画像と前記特定部が特定した人物とを対応付けて前記記憶部に記憶させる構成としてもよい。   In the present invention, when the detection unit detects a plurality of organizing objects from the first image, the generating unit generates the second image for each of the plurality of organizing objects detected by the detecting unit. The storage control unit may be configured to store the one or more second images specified by the generation unit and the person specified by the specification unit in the storage unit in association with each other.

また、本発明においては、前記特定部は、前記第1画像内において前記検出部が検出した顔の位置と、前記第1画像内において前記検出部が検出した前記整理対象との位置関係に応じて前記人物を特定する構成としてもよい。   In the present invention, the specifying unit is configured to respond to a positional relationship between the position of the face detected by the detection unit in the first image and the organizing target detected by the detection unit in the first image. The person may be specified.

また、本発明においては、前記検出部が検出した顔に対応する人物をユーザの操作に応じて設定する構成としてもよい。   Moreover, in this invention, it is good also as a structure which sets the person corresponding to the face which the said detection part detected according to a user's operation.

また、本発明においては、前記検出部は、前記第2画像から文字列を検出し、前記記憶制御部は、前記特定部が特定した人物と前記検出部が検出した文字列とを対応付けて前記記憶部へ記憶させる構成としてもよい。
また、本発明においては、前記検出部は、前記整理対象の属性を検出し、前記記憶制御部は、検出した属性も対応付ける構成としてもよい。
In the present invention, the detection unit detects a character string from the second image, and the storage control unit associates the person specified by the specifying unit with the character string detected by the detection unit. It is good also as a structure memorize | stored in the said memory | storage part.
In the present invention, the detection unit may detect the attribute to be organized, and the storage control unit may associate the detected attribute with each other.

また、本発明は、コンピュータを、第1画像内にある顔及び整理対象を検出する検出部と、前記検出部が検出した前記整理対象の画像である第2画像を生成する生成部と、前記検出部が検出した顔に対応した人物を特定する特定部と、前記特定部が特定した人物と前記生成部が生成した第2画像とを対応付けて記憶部に記憶させる記憶制御部として機能させるためのプログラムを提供する。   Further, the present invention provides a computer, a detection unit that detects a face and an organizing target in the first image, a generating unit that generates a second image that is the organizing target image detected by the detecting unit, A specifying unit that specifies a person corresponding to the face detected by the detecting unit, a person specified by the specifying unit, and the second image generated by the generating unit are associated with each other and stored in the storage unit. A program is provided.

本発明によれば、人物と物との対応付けを容易にすることができる。   According to the present invention, association between a person and an object can be facilitated.

本発明に係る情報処理装置10のハードウェア構成を示したブロック図。The block diagram which showed the hardware constitutions of the information processing apparatus 10 which concerns on this invention. 情報処理装置10の機能の構成を示した機能ブロック図。FIG. 3 is a functional block diagram showing a functional configuration of the information processing apparatus 10. 撮像部109が生成した画像の一例を示した図。The figure which showed an example of the image which the imaging part 109 produced | generated. 制御部101が行う処理の流れを示したフローチャート。The flowchart which showed the flow of the process which the control part 101 performs.

[実施形態]
(実施形態の構成)
図1は、本発明の一実施形態に係る情報処理装置10のハードウェア構成の一例を示したブロック図である。本実施形態に係る情報処理装置10は、撮影機能を備えたスマートフォンである。なお、情報処理装置10は、スマートフォンに限定されるものではなく、デジタルカメラ、撮影機能を備えたタブレット端末、フィーチャーフォン又は腕時計型のウェアラブルデバイスなどあってもよい。
[Embodiment]
(Configuration of the embodiment)
FIG. 1 is a block diagram showing an example of a hardware configuration of an information processing apparatus 10 according to an embodiment of the present invention. The information processing apparatus 10 according to the present embodiment is a smartphone having a shooting function. Note that the information processing apparatus 10 is not limited to a smartphone, and may be a digital camera, a tablet terminal having a photographing function, a feature phone, a wristwatch-type wearable device, or the like.

通信部105は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。   The communication unit 105 is hardware (transmission / reception device) for performing communication between computers via a wired and / or wireless network, and is also referred to as a network device, a network controller, a network card, a communication module, or the like.

音声処理部107は、マイクロフォンとスピーカを有している。音声処理部107は、情報処理装置同士が音声通話を行う場合、通話相手の音声に係るデジタル信号が通信部105から供給されると、供給されたデジタル信号をアナログ信号に変換する。このアナログ信号は、スピーカへ供給され、スピーカからは、通話相手の音声が放音される。また、音声処理部107は、マイクロフォンが音声を収音すると、収音した音声をデジタル信号に変換する。音声処理部107は、情報処理装置で音声通話を行う場合、ユーザの音声を変換したデジタル信号を通信部105へ供給する。このデジタル信号は、通信部105から通信網2へ送信され、通話相手の情報処理装置へ送信される。   The audio processing unit 107 has a microphone and a speaker. When the information processing apparatuses make a voice call, the voice processing unit 107 converts the supplied digital signal into an analog signal when a digital signal related to the voice of the other party is supplied from the communication unit 105. This analog signal is supplied to a speaker, and the voice of the other party is emitted from the speaker. In addition, when the microphone collects sound, the sound processing unit 107 converts the collected sound into a digital signal. The voice processing unit 107 supplies a digital signal obtained by converting a user's voice to the communication unit 105 when performing a voice call with the information processing apparatus. This digital signal is transmitted from the communication unit 105 to the communication network 2 and transmitted to the information processing apparatus of the other party.

撮像部109は、撮像素子(CMOS又はCCDなど)と、撮像素子に像を結像する光学系を備えている。撮像部109は、撮像素子で得られた画像を表す画像データを生成し、生成した画像データを出力する。   The imaging unit 109 includes an imaging device (such as CMOS or CCD) and an optical system that forms an image on the imaging device. The imaging unit 109 generates image data representing an image obtained by the imaging element, and outputs the generated image data.

タッチパネル103は、表示装置(例えば液晶ディスプレイ)と、表示装置の表示面において指の接触を検出するセンサとを組み合わせた装置であり、ユーザにより操作される操作部の一例である。タッチパネル103は、文字、GUI(Graphical User Interface)、撮像部109が生成する画像、情報処理装置10を操作するためのメニュー画面などを表示装置で表示する。また、タッチパネル103は、ユーザが指で触れた位置をセンサで検出する。制御部101は、タッチパネル103が検出した位置と、タッチパネルに表示されている画面に応じてユーザの操作を特定し、特定した操作に応じて各部の制御を行い、各種処理を実行する。   The touch panel 103 is a device that combines a display device (for example, a liquid crystal display) and a sensor that detects finger contact on the display surface of the display device, and is an example of an operation unit operated by a user. The touch panel 103 displays characters, a GUI (Graphical User Interface), an image generated by the imaging unit 109, a menu screen for operating the information processing apparatus 10, and the like on the display device. In addition, the touch panel 103 detects a position touched by the user with a finger using a sensor. The control unit 101 identifies a user operation according to the position detected by the touch panel 103 and the screen displayed on the touch panel, performs control of each unit according to the identified operation, and executes various processes.

記憶部102は、不揮発性メモリを有しており、オペレーティングシステムのプログラム、アプリケーションプログラム、画像データから抽出した画像、人間の顔の特徴点を表す特徴点データなどを記憶する。本実施形態においては、記憶部102はアプリケーションプログラムとして、画像データが表す画像にある予め定められた整理対象物と顔を検出し、検出した顔に対応した人物と、検出した整理対象物の画像とを対応付けて記憶する機能を実現するアプリケーションプログラムを記憶している。また、記憶部102は、本実施形態においては、特徴点データとして、情報処理装置10のユーザの子供の顔の特徴点データを記憶しており、兄弟の兄の顔の特徴点データと兄の名前を対応付けて記憶し、弟の顔の特徴点データと弟の名前を対応付けて記憶している。   The storage unit 102 has a nonvolatile memory, and stores operating system programs, application programs, images extracted from image data, feature point data representing feature points of a human face, and the like. In the present embodiment, the storage unit 102 detects, as an application program, predetermined arrangement objects and faces in the image represented by the image data, the person corresponding to the detected face, and the detected arrangement object image. Are stored in association with each other. In the present embodiment, the storage unit 102 stores the feature point data of the face of the child of the user of the information processing apparatus 10 as the feature point data. The name is stored in association with each other, and the feature point data of the younger brother's face and the name of the younger brother are stored in association with each other.

制御部101は、CPU(Central Processing Unit)とRAM(Random Access Memory)を有する。本発明に係る機能は、CPU、RAMなどのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、CPUが演算を行い、各部の制御や、RAM及び記憶部102におけるデータの読み出し及び/又は書き込みを制御することで実現される。CPUは、記憶部102に記憶されているオペレーティングシステムのプログラムを実行し、情報処理装置10の全体を制御する。CPUがオペレーティングシステムのプログラムを実行すると、アプリケーションプログラムを実行することが可能となる。   The control unit 101 includes a CPU (Central Processing Unit) and a RAM (Random Access Memory). The function according to the present invention is to read predetermined software (program) on hardware such as CPU and RAM, so that the CPU performs an operation, controls each unit, reads data in the RAM and the storage unit 102, and / or Alternatively, it is realized by controlling writing. The CPU executes an operating system program stored in the storage unit 102 and controls the entire information processing apparatus 10. When the CPU executes the operating system program, the application program can be executed.

図2は、情報処理装置10において実現する機能のうち、本発明に係る機能の構成を示したブロック図である。検出部1001は、撮像部109が出力した画像データが表す画像にある顔と整理対象物を検出する。生成部1002は、検出部1001が検出した整理対象物を表す画像データを生成する。特定部1003は、検出部1001が検出した顔に対応した人物を特定する。記憶制御部1004は、特定部1003が特定した人物と生成部1002が生成した画像データを対応付けて記憶部102に記憶させる。   FIG. 2 is a block diagram showing a configuration of functions according to the present invention among the functions realized in the information processing apparatus 10. The detection unit 1001 detects a face and an organizing target in the image represented by the image data output from the imaging unit 109. The generation unit 1002 generates image data representing the organizing object detected by the detection unit 1001. The identification unit 1003 identifies a person corresponding to the face detected by the detection unit 1001. The storage control unit 1004 stores the person specified by the specifying unit 1003 and the image data generated by the generating unit 1002 in the storage unit 102 in association with each other.

(実施形態の動作例)
次に本実施形態の動作例について説明する。なお、以下の説明においては、情報処理装置10が上述のアプリケーションプログラムを実行しており、整理対象物は、文章が記載された紙の配布物である場合を想定して動作例の説明を行う。
(Operation example of embodiment)
Next, an operation example of this embodiment will be described. In the following description, an operation example will be described on the assumption that the information processing apparatus 10 executes the above-described application program and the organizing target is a paper distribution in which a sentence is written. .

情報処理装置10が上述のアプリケーションプログラムを実行していると、撮像部109の撮像素子が生成する画像がタッチパネル103に表示される。例えば、情報処理装置10のユーザである母親は、学校から兄に対して配布された紙の配布物を兄と対応付けて記録する場合、図3に例示したように兄に配布物を持たせる。そして母親は、兄と配布物がタッチパネル103に表示されるように情報処理装置10を構え、タッチパネル103において、兄と配布物を撮影する操作を行う。   When the information processing apparatus 10 is executing the above-described application program, an image generated by the imaging element of the imaging unit 109 is displayed on the touch panel 103. For example, when a mother who is a user of the information processing apparatus 10 records a paper distribution distributed from school to an older brother in association with the older brother, the mother has a distribution as illustrated in FIG. . The mother holds the information processing apparatus 10 so that the older brother and the distribution are displayed on the touch panel 103, and performs an operation of photographing the older brother and the distribution on the touch panel 103.

制御部101は、撮影の操作が行われると図4に示した処理を行う。まず制御部101は、ユーザの操作に応じて撮像部109を制御し、兄と配布物を撮影する(ステップSA1)。制御部101は、撮影した兄と配布物を含む画像の画像データ(第1画像)を取得する(ステップSA2)。制御部101は、撮像部109が生成した画像データを記憶部102に記憶させる(ステップSA3)。   When the photographing operation is performed, the control unit 101 performs the processing illustrated in FIG. First, the control unit 101 controls the imaging unit 109 in accordance with the user's operation, and photographs the handout with the brother (Step SA1). The control unit 101 acquires image data (first image) of the image including the photographed older brother and the distribution (Step SA2). The control unit 101 stores the image data generated by the imaging unit 109 in the storage unit 102 (step SA3).

制御部101(検出部1001)は、記憶部102に記憶された画像データを解析し、画像データが表す画像中にある顔の部分を検出する(ステップSA4)。次に制御部101(特定部1003)は、検出した部分にある顔の特徴点のデータと、記憶部102に記憶されている特徴点データを照合し、周知又は公知の顔照合の技術を用い、検出した部分にある顔に対応する人物を特定する(ステップSA5)。ここで制御部101は、検出した部分にある顔の特徴点の特徴点データと、記憶部102に記憶されている兄の顔の特徴点データとが類似していると判断した場合、兄の顔の特徴点データに対応付けて記憶されている名前、即ち兄の名前を取得する。   The control unit 101 (detection unit 1001) analyzes the image data stored in the storage unit 102 and detects a face portion in the image represented by the image data (step SA4). Next, the control unit 101 (identification unit 1003) collates the feature point data of the face in the detected portion with the feature point data stored in the storage unit 102, and uses a known or well-known face matching technique. The person corresponding to the face in the detected part is specified (step SA5). Here, when the control unit 101 determines that the feature point data of the facial feature point in the detected part is similar to the feature point data of the brother's face stored in the storage unit 102, The name stored in association with the facial feature point data, that is, the name of the older brother is acquired.

次に制御部101(検出部1001)は、記憶部102に記憶された画像データを解析し、画像データが表す画像中にある整理対象物である配布物の部分を検出する(ステップSA6)。制御部101(生成部1002)は、検出した配布物の部分の画像の画像データ、即ち、整理対象物を表す画像の画像データ(第2画像)を生成する(ステップSA7)。   Next, the control unit 101 (detection unit 1001) analyzes the image data stored in the storage unit 102, and detects a portion of the distribution item that is an arrangement target in the image represented by the image data (step SA6). The control unit 101 (generation unit 1002) generates image data of an image of the detected distribution part, that is, image data (second image) of an image representing an arrangement target (step SA7).

制御部101(記憶制御部1004)は、取得した兄の名前、生成した整理対象物の画像データ及び撮像部109が生成した画像データの生成日時を対応付けて記憶部102に記憶させる(ステップSA8)。   The control unit 101 (storage control unit 1004) stores the acquired name of the older brother, the generated image data of the organizing object, and the generation date and time of the image data generated by the imaging unit 109 in the storage unit 102 (step SA8). ).

次に情報処理装置10のユーザである母親は、弟に対して学校から配布された紙の配布物を弟と対応付けて記録する場合、弟に配布物を持たせる。そして母親は、弟と配布物がタッチパネル103に表示されるように情報処理装置10を構え、タッチパネル103において、弟と配布物を撮影する操作を行う。制御部101は、ユーザの操作に応じて撮像部109を制御し、弟と配布物を撮影する(ステップSA1)。制御部101は、撮影した弟と配布物を含む画像の画像データ(第1画像)を取得する(ステップSA2)。制御部101は、撮像部109が生成した画像データを記憶部102に記憶させる(ステップSA3)。   Next, when the mother who is the user of the information processing apparatus 10 records the paper distribution distributed to the younger brother from the school in association with the younger brother, the mother gives the younger brother the distribution. Then, the mother holds the information processing apparatus 10 so that the brother and the distribution are displayed on the touch panel 103, and performs an operation of photographing the distribution with the brother on the touch panel 103. The control unit 101 controls the imaging unit 109 according to the user's operation, and images the brother and the distribution (Step SA1). The control unit 101 acquires image data (first image) of an image including the photographed younger brother and the distribution (Step SA2). The control unit 101 stores the image data generated by the imaging unit 109 in the storage unit 102 (step SA3).

制御部101(検出部1001)は、記憶部102に記憶された画像データを解析し、画像データが表す画像中にある顔の部分を検出する(ステップSA4)。次に制御部101(特定部1003)は、検出した部分にある顔の特徴点のデータと、記憶部102に記憶されている特徴点データを照合し、検出した部分にある顔に対応する人物を特定する(ステップSA5)。ここで制御部101は、特定した部分にある顔の特徴点の特徴点データと、記憶部102に記憶されている弟の顔の特徴点データとが類似していると判断した場合、弟の顔の特徴点データに対応付けて記憶されている名前、即ち弟の名前を取得する。   The control unit 101 (detection unit 1001) analyzes the image data stored in the storage unit 102 and detects a face portion in the image represented by the image data (step SA4). Next, the control unit 101 (identification unit 1003) collates the feature point data of the face in the detected part with the feature point data stored in the storage unit 102, and the person corresponding to the face in the detected part Is specified (step SA5). Here, when the control unit 101 determines that the feature point data of the facial feature point in the specified portion is similar to the feature point data of the younger brother's face stored in the storage unit 102, The name stored in association with the facial feature point data, that is, the name of the younger brother is acquired.

次に制御部101(検出部1001)は、記憶部102に記憶された画像データを解析し、画像データが表す画像中にある整理対象物である配布物の部分を検出する(ステップSA6)。制御部101は、検出した配布物の部分の画像の画像データ、即ち、整理対象物を表す画像の画像データ(第2画像)を生成する(ステップSA7)。   Next, the control unit 101 (detection unit 1001) analyzes the image data stored in the storage unit 102, and detects a portion of the distribution item that is an arrangement target in the image represented by the image data (step SA6). The control unit 101 generates image data of the image of the detected distribution part, that is, image data (second image) of an image representing the organizing object (step SA7).

制御部101(記憶制御部1004)は、取得した弟の名前、生成した整理対象物の画像データ及び撮像部109が生成した画像データの生成日時とを対応付けて記憶部102に記憶させる(ステップSA8)。   The control unit 101 (storage control unit 1004) causes the storage unit 102 to store the acquired name of the younger brother, the generated image data of the organizing object, and the generation date and time of the image data generated by the imaging unit 109 in association with each other (Step S102). SA8).

母親は、兄に対して配布された配布物を検索する場合、タッチパネル103において兄の名前を入力し、兄の名前に対応付けて記憶された画像データの検索を指示する操作を行う。制御部101は、ユーザの操作に応じて、入力された兄の名前に対応付けて記憶されている画像データを記憶部102において検索し、検索でヒットした画像データのサムネイル画像が表示されるようにタッチパネル103を制御する。母親が、表示されたサムネイル画像のうちの一つをタップする操作をタッチパネル103において行うと、制御部101は、タップされた位置にあるサムネイル画像が全画面表示されるようにタッチパネル103を制御する。   When searching for a distribution distributed to the older brother, the mother inputs the older brother's name on the touch panel 103 and performs an operation to instruct retrieval of image data stored in association with the older brother's name. In response to a user operation, the control unit 101 searches the storage unit 102 for image data stored in association with the input name of the older brother so that a thumbnail image of the image data hit in the search is displayed. The touch panel 103 is controlled. When the mother performs an operation of tapping one of the displayed thumbnail images on the touch panel 103, the control unit 101 controls the touch panel 103 so that the thumbnail image at the tapped position is displayed on the full screen. .

これにより、母親は、兄に対して配布された学校からの配布物を容易に探し出して見ることができる。なお、弟に対して配布された配布物を見る場合、タッチパネル103において弟の名前を入力し、弟の名前に対応付けて記憶された画像データの検索を指示する操作を行えば、兄の場合と同様に、弟に対して配布された学校からの配布物を容易に探し出して見ることができる。   As a result, the mother can easily find and view the distribution from the school distributed to her brother. In addition, when viewing the distribution distributed to the younger brother, the name of the younger brother is input on the touch panel 103 and an operation for instructing the search of the image data stored in association with the younger brother's name is performed. As with, you can easily find and view the distribution from the school distributed to your brother.

[変形例]
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよい。なお、上述した実施形態及び以下の変形例は、各々を組み合わせてもよい。
[Modification]
As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above, It can implement with another various form. For example, the present invention may be implemented by modifying the above-described embodiment as follows. In addition, you may combine each of embodiment mentioned above and the following modifications.

上述した実施形態においては、整理対象物は文章が記載された紙の配布物となっているが、整理対象物は紙の配布物以外の物であってもよく、例えば、整理対象物は衣類であってもよい。この構成によれば、人物の名前と衣類の画像とが対応付けて記憶部102に記憶される。これにより、例えば、兄の名前と兄が着用する衣類の画像とを対応付けて記憶し、兄が着用する衣類を容易に知ることができる。   In the embodiment described above, the organizing target is a paper distribution in which text is written, but the organizing target may be other than a paper distribution, for example, the organizing target is clothing. It may be. According to this configuration, the name of the person and the clothing image are stored in the storage unit 102 in association with each other. Thereby, for example, the name of the brother and the image of the clothes worn by the brother can be stored in association with each other, and the clothes worn by the brother can be easily known.

本発明においては、制御部101は、画像データが表す画像において手で持たれている物体を整理対象物として検出してもよい。この構成によれば、人物の名前と、撮影された人物が手で持っている物の画像とが対応付けて記憶部102に記憶される。これにより、例えば、兄の名前と兄が所有する本の画像とを対応付けて記憶し、兄の所有する本を容易に知ることができる。   In the present invention, the control unit 101 may detect an object held by a hand in the image represented by the image data as an organizing target. According to this configuration, the name of the person and the image of the object that the photographed person has are stored in the storage unit 102 in association with each other. Thereby, for example, the name of the older brother and the image of the book owned by the older brother are stored in association with each other, and the book owned by the older brother can be easily known.

本発明においては、制御部101は、画像データが表す画像において撮影された人物が着用している衣類を整理対象物として検出してもよい。この構成によれば、人物の名前と、撮影された人物が着用している衣類の画像とが対応付けて記憶部102に記憶される。これにより、例えば、兄の名前と兄が着用する衣類の画像とを対応付けて記憶し、兄が着用する衣類を容易に知ることができる。   In the present invention, the control unit 101 may detect the clothing worn by the person photographed in the image represented by the image data as the organizing object. According to this configuration, the name of the person and the clothing image worn by the photographed person are stored in the storage unit 102 in association with each other. Thereby, for example, the name of the brother and the image of the clothes worn by the brother can be stored in association with each other, and the clothes worn by the brother can be easily known.

上述した実施形態においては、整理対象物が予め設定されている構成となっているが、整理対象物を情報処理装置10のユーザが設定する構成としてもよい。例えば、情報処理装置10のユーザは、人物及び整理対象物がタッチパネル103に表示されるように情報処理装置10を構え、撮影の操作を行う前に、整理対象物が表示されている領域を指で指定する操作を行う。この後、ユーザが撮影を指示する操作を行うと、撮像部109は、撮影した人物と整理対象物を含む画像データ(第1画像)を生成する。制御部101は、撮像部109が生成した画像データを記憶部102に記憶させる。制御部101は、撮影された顔に対応する名前を特定した後、ユーザが指定した領域内の部分の画像の画像データを、整理対象物の画像を表す画像データ(第2画像)として生成する。この構成によれば、例えば、テーブルに置かれた物体が写る領域をユーザが指定すると、テーブルに置かれた物体の画像データが整理対象物の画像を表す画像データとして記憶され、撮影される人物が整理対象物を手に持たなくとも、撮影された人物の名前と整理対象物の画像とを対応付けて記憶することができる。   In the embodiment described above, the arrangement target is set in advance, but the arrangement target may be set by the user of the information processing apparatus 10. For example, the user of the information processing apparatus 10 holds the information processing apparatus 10 so that the person and the organizing target are displayed on the touch panel 103, and points to the area where the organizing target is displayed before performing the shooting operation. Perform the operation specified in. Thereafter, when the user performs an operation to instruct photographing, the imaging unit 109 generates image data (first image) including the photographed person and the organizing target. The control unit 101 stores the image data generated by the imaging unit 109 in the storage unit 102. After specifying the name corresponding to the photographed face, the control unit 101 generates the image data of the image in the part in the area specified by the user as the image data (second image) representing the image of the organizing object. . According to this configuration, for example, when the user designates an area in which an object placed on the table is shown, the image data of the object placed on the table is stored as image data representing the image of the organizing object, and the person to be photographed Even if the organizing object is not held in the hand, the name of the photographed person and the image of the organizing object can be stored in association with each other.

上述した実施形態においては、整理対象物は文章が記載された紙の配布物となっているが、撮影される人物毎に整理対象物が異なる構成としてもよい。例えば、上述した兄を撮影した場合、制御部101は、紙の配布物を整理対象物として設定し、上述した弟を撮影した場合、衣類を整理対象物として設定してもよい。   In the embodiment described above, the organizing target is a paper distribution in which text is written, but the organizing target may be different for each person to be photographed. For example, when the above-described brother is photographed, the control unit 101 may set a paper distribution as an organizing target, and when photographing the above-described brother, may set clothing as an organizing target.

本発明においては、情報処理装置10は、一つの画像データから複数の顔の部分と複数の整理対象物の部分を検出し、検出した顔に対応する人物の名前と、検出した整理対象部の画像とを対応付けて記憶するようにしてもよい。例えば、制御部101は、学校からの配布物を持った兄と学校からの配布物を持った弟が並んでいる状態を撮像部109が撮影した場合、撮像部109が生成した画像データから、兄の顔の部分と弟の顔の部分を検出する。また、制御部101は、撮像部109が生成した画像データから、兄が持っている配布物を表す画像の画像データと、弟が持っている配布物を表す画像の画像データを生成する。制御部101は、兄の名前と、兄の顔に近い整理対象物の画像の画像データとを対応付けて記憶部102に記憶させ、弟の名前と、弟の顔に近い整理対象物の画像の画像データとを対応付けて記憶部102に記憶させる。この構成によれば、一つの画像から、人物毎に整理対象物を対応付けることができる。   In the present invention, the information processing apparatus 10 detects a plurality of face portions and a plurality of organizing object portions from one image data, and names of persons corresponding to the detected faces and the detected organizing target portion. The image may be stored in association with each other. For example, when the imaging unit 109 captures a state in which a brother with a distribution from a school and a brother with a distribution from a school are lined up, the control unit 101 uses the image data generated by the imaging unit 109 to The brother's face part and the brother's face part are detected. In addition, the control unit 101 generates image data of an image representing a distribution possessed by the older brother and image data of an image representing the distribution possessed by the younger brother from the image data generated by the imaging unit 109. The control unit 101 associates the name of the brother and the image data of the image of the organizing object close to the brother's face in the storage unit 102, and stores the name of the brother and the image of the organizing object close to the brother's face. Are stored in the storage unit 102 in association with each other. According to this configuration, it is possible to associate an organizing object for each person from one image.

本発明においては、情報処理装置10は、一つの画像データから複数の整理対象物の部分を検出し、検出した顔に対応する人物の名前と、検出した複数の整理対象物の画像とを対応付けて記憶するようにしてもよい。例えば、制御部101は、学校からの2つの配布物を持った兄を撮像部109で撮影した場合、撮像部109が生成した画像データから、兄の顔の部分を検出する。また、制御部101は、撮像部109が生成した画像データから、兄が右手に持っている配布物を表す画像の画像データと、左手に持っているもう一つの配布物を表す画像の画像データを生成する。制御部101は、兄の名前と、兄が右手に持っていた整理対象物の画像の画像データとを対応付けて記憶部102に記憶させ、さらに兄の名前と、兄が左手に持っていた整理対象物の画像の画像データとを対応付けて記憶部102に記憶させる。この構成によれば、一つの画像から、一人の人物に複数の整理対象物を対応付けることができる。   In the present invention, the information processing apparatus 10 detects a plurality of organizing object parts from one image data, and associates the names of persons corresponding to the detected faces with the detected plural organizing object images. It may be added and stored. For example, when the imaging unit 109 captures an older brother who has two distribution items from the school, the control unit 101 detects the brother's face from the image data generated by the imaging unit 109. In addition, the control unit 101 uses the image data generated by the imaging unit 109 to display image data representing a distribution that the brother has on the right hand and image data representing another distribution that the left hand has. Is generated. The control unit 101 associates the name of the elder brother with the image data of the image of the organizing object that the elder brother had in the right hand, and stores it in the storage unit 102. Furthermore, the name of the elder brother and the elder brother held in the left hand The image data of the image of the organizing object is associated with and stored in the storage unit 102. According to this configuration, a plurality of organizing objects can be associated with one person from one image.

本発明においては、情報処理装置10は、一つの画像データから複数の顔と一つの整理対象物の部分を検出し、検出した顔に対応する人物の名前と、検出した整理対象物の画像とを対応付けて記憶するようにしてもよい。例えば、制御部101は、賞状、兄及び弟を撮像部109で撮影した場合、撮像部109が生成した画像データから、兄の顔の部分と弟の顔の部分を検出する。また、制御部101は、撮像部109が生成した画像データから、整理対象物である賞状を表す画像の画像データを生成する。制御部101は、兄の名前と、賞状の画像の画像データとを対応付けて記憶部102に記憶させ、さらに弟の名前と、賞状の画像の画像データとを対応付けて記憶部102に記憶させる。この構成によれば、一つの画像から、複数の人物のそれぞれに整理対象物を対応付けることができる。   In the present invention, the information processing apparatus 10 detects a plurality of faces and a part of one organizing object from one image data, the name of the person corresponding to the detected face, the image of the organizing object detected May be stored in association with each other. For example, when a certificate, a brother and a younger brother are photographed by the imaging unit 109, the control unit 101 detects the brother's face part and the brother's face part from the image data generated by the imaging unit 109. Further, the control unit 101 generates image data of an image representing a certificate that is an organizing target from the image data generated by the imaging unit 109. The control unit 101 associates the name of the elder brother with the image data of the award certificate and stores it in the storage unit 102, and further associates the name of the brother and the image data of the award certificate in the storage unit 102. Let According to this configuration, an arrangement target can be associated with each of a plurality of persons from one image.

本発明においては、情報処理装置10は、顔と整理対象物の位置関係に応じて、整理対象物に対応付けられる人物を決定するようにしてもよい。例えば、情報処理装置10は、父親の顔の特徴点データと兄の名前を対応付けて記憶し、さらに父親の顔の特徴点データに弟の名前を対応付けて記憶する。制御部101は、配布物と父親を撮像部109が撮影した場合、撮像部109が生成した画像データから、父親の顔の部分を検出する。また、制御部101は、撮像部109が生成した画像データから、整理対象物である配布物を表す画像の画像データを生成する。制御部101は、顔の部分に対する整理対象物の位置を特定する。制御部101は、検出した部分にある顔の特徴点の特徴点データと、記憶部102に記憶されている父親の顔の特徴点データとが類似していると判断した場合、父親の顔の特徴点データに対応付けて記憶されている名前、即ち兄の名前と弟の名前を取得する。制御部101は、整理対象物である配布物が父親の顔より右側にある場合、兄の名前と整理対象物の画像データを対応付けて記憶部102に記憶させ、整理対象物である配布物が父親の顔より左側にある場合、弟の名前と整理対象物の画像データを対応付けて記憶部102に記憶させる。この構成によれば、整理対象物の位置に応じて、整理対象物に対応付けられる人物を変えることができる。   In the present invention, the information processing apparatus 10 may determine the person associated with the organizing object according to the positional relationship between the face and the organizing object. For example, the information processing apparatus 10 stores the feature point data of the father's face and the brother's name in association with each other, and further stores the brother's name in association with the feature point data of the father's face. When the imaging unit 109 captures the distribution and the father, the control unit 101 detects the face part of the father from the image data generated by the imaging unit 109. In addition, the control unit 101 generates image data of an image representing a distribution object that is an arrangement target object from the image data generated by the imaging unit 109. The control unit 101 identifies the position of the organizing object with respect to the face part. When the control unit 101 determines that the feature point data of the facial feature point in the detected part is similar to the feature point data of the father's face stored in the storage unit 102, the control unit 101 The name stored in association with the feature point data, that is, the name of the brother and the name of the brother is acquired. When the distribution object that is the organizing object is on the right side of the father's face, the control unit 101 stores the brother's name and the image data of the organizing object in association with each other in the storage unit 102, and the distribution object that is the organizing object Is on the left side of the father's face, the younger brother's name and the image data of the organizing object are associated with each other and stored in the storage unit 102. According to this configuration, the person associated with the organizing object can be changed according to the position of the organizing object.

本発明においては、記憶部102は、父親の顔の特徴点データに対して兄の名前を記憶し、母親の顔の特徴点データに対して弟の名前を記憶してもよい。この構成の場合、情報処理装置10は、配布物を持った父親を撮影すると、兄の名前と配布物の画像の画像データとを対応付けて記憶し、配布物を持った母親を撮影すると、弟の名前と配布物の画像の画像データとを対応付けて記憶する。この構成によれば、兄及び/又は弟がいなくても、兄及び/又は弟に配布された配布物の画像を兄又は弟に対応付けて記憶させることができる。   In the present invention, the storage unit 102 may store the name of the older brother for the feature point data of the father's face and the name of the younger brother for the feature point data of the mother's face. In the case of this configuration, the information processing apparatus 10 stores the name of the brother and the image data of the image of the distribution in association with each other when the father with the distribution is photographed, and when the mother with the distribution is photographed, The brother's name and the image data of the distribution image are stored in association with each other. According to this configuration, even if there is no older brother and / or younger brother, it is possible to store an image of a distribution distributed to the older brother and / or younger brother in association with the older brother or younger brother.

本発明においては、制御部101は、ステップSA4で検出した部分にある顔の特徴点データに類似する特徴点データが記憶部102に記憶されていない場合、ステップSA4で検出した部分にある顔の特徴点データに対応する人物の名前の入力をユーザに促し、入力された名前と、ステップSA4で特定した部分にある顔の特徴点データとを対応付けて記憶するようにしてもよい。   In the present invention, if the feature point data similar to the feature point data of the face in the part detected in step SA4 is not stored in the storage unit 102, the control unit 101 determines the face in the part detected in step SA4. The user may be prompted to input the name of the person corresponding to the feature point data, and the input name may be stored in association with the feature point data of the face in the part specified in step SA4.

本発明においては、サムネイル画像をタップした後で表示された整理対象物の画像に対し、ユーザが指又はスタイラスペンでタッチパネル103に対して書き込みの動作を行うと、整理対処物の画像に対して指又はスタイラスペンの移動軌跡に応じた画像を追記するようにしてもよい。   In the present invention, when the user performs a writing operation on the touch panel 103 with the finger or the stylus pen for the image of the organizing target displayed after tapping the thumbnail image, the image of the organizing target object is displayed. You may make it add the image according to the movement locus | trajectory of a finger | toe or a stylus pen.

本発明においては、制御部101は、文章が記載されている印刷物が整理対象物である場合、整理対象物の画像に対して文字認識を行い、整理対象物に記載されている文字列を検出して記憶してもよい。また、制御部101は、整理対象物の画像に対して文字認識を行う場合、予め定められた文字列を検出し、検出した文字列に応じてユーザに通知を行う構成としてもよい。例えば、制御部101(検出部1001)は、学校からの配布物を整理対象物とした場合、配布物に記載されている運動会、遠足、健康診断、授業参観などの学校行事に係る文字列、学校行事に係る日時及び場所に係る文字列などを検出する。制御部101は、例えば、「○月×日」という文字列と、「運動会」という文字列を抽出した場合、運動会があることを○月×日の前日にユーザに通知する。   In the present invention, when the printed matter on which the text is described is the organizing target, the control unit 101 performs character recognition on the image of the organizing target and detects the character string described on the organizing target. May be stored. In addition, when performing character recognition on the image of the organizing target, the control unit 101 may be configured to detect a predetermined character string and notify the user according to the detected character string. For example, when the control unit 101 (detection unit 1001) uses a distribution from a school as an object to be organized, a character string related to a school event such as an athletic meet, excursion, medical checkup, class visit, etc. described in the distribution, Detect date and time related to school events and character strings related to places. For example, when the character string “○ month × day” and the character string “athletic day” are extracted, the control unit 101 notifies the user that there is an athletic day the day before ○ month × day.

なお、制御部101は、通知を情報処理装置10のユーザ以外に行うようにしてもよい。例えば、記憶部102は、兄の顔の特徴点データに対して兄の電子メールアドレスを記憶する。制御部101は、兄の名前と対応付けて記憶した整理対象物の画像データが表す画像から、「○月×日」という文字列と、「運動会」という文字列を抽出した場合、兄の名前に対応付けられている電子メールアドレスを宛先として、本文に「○月×日」という文字列と、「運動会」という文字列を記載した電子メールを送信する。   Note that the control unit 101 may perform notification other than the user of the information processing apparatus 10. For example, the storage unit 102 stores the brother's e-mail address with respect to the feature point data of the brother's face. When the control unit 101 extracts the character string “○ month × day” and the character string “athletic day” from the image represented by the image data of the organizing target stored in association with the brother's name, the name of the brother An e-mail in which a character string “○ month × day” and a character string “athletic day” are written in the body is sent to the e-mail address associated with

また、電子メールを送信する場合、予め定められた文字列毎に、電子メールの送信先を設定する構成であってもよい。例えば、「運動会」という文字列に対して、兄弟の祖父母、父、母、兄弟の電子メールアドレスを設定し、「授業参観」という文字列に対して、兄弟の父と母の電子メールアドレスを設定するようにしてもよい。この構成の場合、情報処理装置10が運動会の案内の配布物を撮影すると、運動会についての通知が兄弟の祖父母、父、母、兄弟へ電子メールで送られ、授業参観の案内の配布物撮影すると、授業参観についての通知を兄弟の父母へ電子メール送ることができ、配布物の内容によって通知先を異ならせることができる。なお、制御部101は、抽出した文字列に基づいて、スケジュールを管理するアプリケーションプログラムにスケジュールを登録する構成としてもよい。   Moreover, when transmitting an electronic mail, the structure which sets the transmission destination of an electronic mail for every predetermined character string may be sufficient. For example, set the siblings' grandparents, father, mother, siblings e-mail addresses for the string "athletic meet", and the siblings father and mother e-mail addresses for the string "visiting class". You may make it set. In the case of this configuration, when the information processing apparatus 10 photographs a handout of athletic meet guidance, a notice about the athletic meet is sent to the siblings' grandparents, father, mother, and brother by e-mail, and the handout of the guidance for class attendance is photographed. Notifications about class visits can be sent by e-mail to the siblings' parents, and the notification destination can vary depending on the contents of the distribution. The control unit 101 may be configured to register a schedule in an application program that manages the schedule based on the extracted character string.

本発明においては、整理対象物の画像から文字列を検出する構成においては、整理対象物の画像から数値を検出し、検出した数値に基づいてグラフを作成してもよい。例えば、制御部101は、整理対象物をテスト用紙とし、テストの採点結果である点数の文字列を整理対象物の画像から検出し、検出した点数を整理対象物の画像データと対応付けて記憶する。制御部101は、整理対象物の画像データ及び点数を記憶した日時を横軸、点数を縦軸としたグラフを作成し、整理対象物の画像データに対応付けて記憶した点数をグラフ上にプロットしてタッチパネル103に表示する。この構成によれば、テストの採点結果を自動的にグラフにして表示することができる。   In the present invention, in a configuration in which a character string is detected from the image of the organizing object, a numerical value may be detected from the image of the organizing object, and a graph may be created based on the detected numerical value. For example, the control unit 101 uses the arrangement object as a test sheet, detects a character string of a score as a test scoring result from the image of the arrangement object, and stores the detected score in association with the image data of the arrangement object. To do. The control unit 101 creates a graph with the horizontal axis representing the date and time when the image data and the score of the organizing object are stored and the vertical axis representing the score, and plots the score stored in association with the image data of the organizing object on the graph. And displayed on the touch panel 103. According to this configuration, the test scoring results can be automatically displayed as a graph.

また、本発明においては、整理対象物をテスト用紙とし、整理対象物から文字列を検出する場合、検出した文字列に属性を付加する構成としてもよい。例えば、制御部101は、テスト用紙の画像から文字列を検出し、検出した文字列が手書きの黒の文字列である場合には、文字列に対して黒という属性と手書きという属性を付与する。また、制御部101は、テスト用紙の画像から検出した文字列が、フォントの黒の文字列である場合、文字列に対して黒という属性とフォントという属性を付与し、抽出した文字列が手書きの赤の文字列である場合には、文字列に対して赤という属性と手書きという属性を付与する。制御部101は、抽出した文字列及び属性を記憶部102に記憶させる。制御部101は、ユーザの操作に応じて、例えば、黒という属性とフォントという属性が付与されている文字列を記憶部102に記憶されている文字列から抽出し、抽出した文字列をタッチパネル103に表示させる。テスト用紙においては、問題文は黒のフォントの文字列であるため、この構成によれば、テストの問題だけを抽出して表示することが可能であり、テストの復習を行うことができる。
なお、本変形例においては、情報処理装置10は、テストの問題文の文字列を表示する際に問題文毎にチェックボックスを共に表示し、チェックボックスがマークされた問題文については、記憶部102から消去するか又はタッチパネル103に表示しないようにしてもよい。
Moreover, in this invention, it is good also as a structure which adds an attribute to the detected character string, when an arrangement target object is made into a test paper and a character string is detected from the arrangement object. For example, the control unit 101 detects a character string from an image on a test sheet. If the detected character string is a handwritten black character string, the control unit 101 assigns a black attribute and a handwritten attribute to the character string. . In addition, when the character string detected from the image on the test sheet is a black character string of the font, the control unit 101 assigns a black attribute and a font attribute to the character string, and the extracted character string is handwritten. If the character string is a red character string, the red attribute and the handwritten attribute are assigned to the character string. The control unit 101 stores the extracted character string and attribute in the storage unit 102. The control unit 101 extracts, for example, a character string to which a black attribute and a font attribute are assigned from a character string stored in the storage unit 102 in accordance with a user operation, and the extracted character string is displayed on the touch panel 103. To display. On the test sheet, the question sentence is a character string in black font. According to this configuration, it is possible to extract and display only the test problem, and to review the test.
In the present modification, the information processing apparatus 10 displays a check box for each question sentence when displaying the test question character string, and the question sentence with the check box marked is stored in the storage unit. It may be deleted from 102 or not displayed on the touch panel 103.

本発明においては、整理対象物が学校からの配布物である場合、整理対象物の画像として生成部1002が生成した画像に対し、予め定められた文字列を追記する構成としてもよい。例えば、記憶部102は、兄弟の保護者の氏名と住所を予め記憶し、学校からの配布物において、保護者の記入欄、住所の記入欄などがある場合、記憶されている保護者の氏名を配布物の画像の保護者の記入欄に追記し、記憶されている住所を住所の記入欄に追記してもよい。この構成によれば、保護者の氏名及び住所が記載された画像をプリンタへ出力して印刷すれば、手書きで保護者の氏名と住所を記載することがなく、自動的に記載を行うことができる。
また、この変形例においては、制御部101は、配布物の画像をタッチパネル103に表示したときに、記入欄に追記する文字列の候補を表示し、表示した文字列の中からユーザが選択した文字列を記入欄に追記するようにしてもよい。また、制御部101は、整理対象物の画像をプリンタへ出力して印刷する場合、整理対象物の画像、記入欄に記載する氏名の文字列、記入欄に記載する住所の文字列をプリンタへ出力し、差し込み印刷の技術により、記入欄に指名と住所を印刷して出力するようにしてもよい。
In the present invention, when the organizing object is a distribution object from a school, a predetermined character string may be added to the image generated by the generating unit 1002 as an image of the organizing object. For example, the storage unit 102 stores the names and addresses of sibling guardians in advance, and if there is a guardian entry field, an address entry field, etc. in the distribution from the school, the name of the guardian stored is stored. May be added to the entry column of the guardian of the image of the distribution, and the stored address may be added to the entry column of the address. According to this configuration, if an image in which the name and address of the guardian are written is output to a printer and printed, the name and address of the guardian can be automatically written without being written by hand. it can.
In this modified example, when the image of the distribution is displayed on the touch panel 103, the control unit 101 displays character string candidates to be added to the entry field, and is selected by the user from the displayed character strings. You may make it add a character string to an entry column. In addition, when the control unit 101 outputs an image of the organizing target to the printer and prints it, the control unit 101 outputs the image of the organizing target, the character string of the name written in the entry column, and the character string of the address written in the entry column to the printer. The designation and address may be printed in the entry field and output by the technique of merge printing.

本発明においては、制御部101は、記憶部102に記憶された画像データ又は整理対象物の画像データを解析して整理対象物の属性を検出し、検出した属性も名前及び整理対象物の画像データに対応付けて記憶部102に記憶させるようにしてもよい。例えば、制御部101は、整理対象物が衣類である場合、スーツ、コート、セーターなどの衣類の種類を属性として検出する。この場合、人物に対応付けられた整理対象物を検索する際に、属性を指定するようにすれば、情報処理装置10は、例えば、コートの画像だけを選択して表示するというように、特定の種類の衣類のみを表示することができる。   In the present invention, the control unit 101 detects the attribute of the organizing object by analyzing the image data stored in the storage unit 102 or the image data of the organizing object, and the detected attribute is also an image of the name and the organizing object. The data may be stored in the storage unit 102 in association with the data. For example, when the organizing target is clothing, the control unit 101 detects the type of clothing such as a suit, a coat, and a sweater as an attribute. In this case, if an attribute is specified when searching for an arrangement target associated with a person, the information processing apparatus 10 selects and displays only a court image, for example. Only types of clothing can be displayed.

情報処理装置10がスマートフォン、タブレット端末又はフィーチャーフォンであり、撮像部109がインカメラとアウトカメラを備える構成である場合、インカメラでユーザの顔を撮影し、アウトカメラで整理対象物を撮影する構成としてもよい。この構成の場合、制御部101は、インカメラが生成した画像データから顔の部分を検出し、検出した部分にある顔に対応する名前を取得する。また、制御部101は、アウトカメラが生成した画像データから整理対象物の部分を検出し、検出した部分にある整理対象物の画像データを生成する。そして制御部101は、取得した名前と生成された整理対象物の画像データを対応付けて記憶部102に記憶させる。この構成によれば、整理対象物を手に持たなくても、人物と整理対象物とを対応付けることができる。   When the information processing apparatus 10 is a smartphone, a tablet terminal, or a feature phone and the imaging unit 109 includes an in-camera and an out-camera, the user's face is photographed with the in-camera and the organizing target is photographed with the out-camera. It is good also as a structure. In the case of this configuration, the control unit 101 detects a face part from image data generated by the in-camera, and acquires a name corresponding to the face in the detected part. In addition, the control unit 101 detects a part of the organizing target from the image data generated by the out-camera, and generates image data of the organizing target in the detected part. Then, the control unit 101 stores the acquired name and the generated image data of the organizing object in the storage unit 102 in association with each other. According to this configuration, the person and the organizing object can be associated with each other without holding the organizing object.

本発明においては、情報処理装置10は、他のコンピュータ装置から通信で取得した画像データ又は外付けの記録媒体から取得した画像データに対してステップSA3〜ステップSA8以降の処理を行うようにしてもよい。また、撮像部109を有していないコンピュータ装置が、他のコンピュータ装置から通信で取得した画像データ又は外付けの記録媒体から取得した画像データに対してステップSA3〜ステップSA8以降の処理を行うようにしてもよい。この構成によれば、撮像部109を備えていないコンピュータ装置においても、人物と物との対応付けを容易に行うことができる。   In the present invention, the information processing apparatus 10 may perform the processes from step SA3 to step SA8 on image data acquired by communication from another computer apparatus or image data acquired from an external recording medium. Good. In addition, a computer apparatus that does not include the imaging unit 109 performs the processes from step SA3 to step SA8 on image data acquired from another computer apparatus through communication or image data acquired from an external recording medium. It may be. According to this configuration, it is possible to easily associate a person with an object even in a computer apparatus that does not include the imaging unit 109.

上述した機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。例えば、本発明の一実施形態における情報処理装置は、本発明の処理を行うコンピュータとして機能してもよい。なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。情報処理装置10のハードウェア構成は、各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。   The functional blocks (configuration units) described above are realized by any combination of hardware and / or software. Further, the means for realizing each functional block is not particularly limited. That is, each functional block may be realized by one device physically and / or logically coupled, and two or more devices physically and / or logically separated may be directly and / or indirectly. (For example, wired and / or wireless) and may be realized by these plural devices. For example, the information processing apparatus according to an embodiment of the present invention may function as a computer that performs the processing of the present invention. In the following description, the term “apparatus” can be read as a circuit, a device, a unit, or the like. The hardware configuration of the information processing apparatus 10 may be configured to include one or a plurality of each device, or may be configured not to include some devices.

また、制御部101は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、記憶部102及び/又は通信部105からRAMに読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、情報処理装置10の制御部101は、RAMに格納され、CPUで動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのCPUで実行される旨を説明してきたが、2以上のプロセッサCPUにより同時又は逐次に実行されてもよい。制御部101は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。   Further, the control unit 101 reads a program (program code), software module, and data from the storage unit 102 and / or the communication unit 105 to the RAM, and executes various processes according to these. As the program, a program that causes a computer to execute at least a part of the operations described in the above embodiments is used. For example, the control unit 101 of the information processing apparatus 10 may be realized by a control program stored in a RAM and operated by a CPU, and may be realized similarly for other functional blocks. Although the above-described various processes have been described as being executed by one CPU, they may be executed simultaneously or sequentially by two or more processor CPUs. The control unit 101 may be mounted on one or more chips. Note that the program may be transmitted from a network via a telecommunication line.

RAMは、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。RAMは、本発明の一実施形態に係る機能を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。   The RAM may be called a register, a cache, a main memory (main storage device), or the like. The RAM can store a program (program code), a software module, and the like that can be executed to perform the functions according to the embodiment of the present invention.

また、情報処理装置10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、制御部101は、これらのハードウェアの少なくとも1つで実装されてもよい。   The information processing apparatus 10 includes hardware such as a microprocessor, a digital signal processor (DSP), an application specific integrated circuit (ASIC), a programmable logic device (PLD), and a field programmable gate array (FPGA). A part or all of each functional block may be realized by the hardware. For example, the control unit 101 may be implemented by at least one of these hardware.

本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。   As long as there is no contradiction, the order of the processing procedures, sequences, flowcharts, and the like of each aspect / embodiment described in this specification may be changed. For example, the methods described herein present the elements of the various steps in an exemplary order and are not limited to the specific order presented.

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。   Input / output information or the like may be stored in a specific location (for example, a memory) or may be managed by a management table. Input / output information and the like can be overwritten, updated, or additionally written. The output information or the like may be deleted. The input information or the like may be transmitted to another device.

本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。   Each aspect / embodiment described in this specification may be used independently, may be used in combination, or may be switched according to execution. In addition, notification of predetermined information (for example, notification of being “X”) is not limited to explicitly performed, but is performed implicitly (for example, notification of the predetermined information is not performed). Also good.

プログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。   Regardless of whether the program is called software, firmware, middleware, microcode, hardware description language, or another name, the instruction, instruction set, code, code segment, program code, subprogram, software module, application Software applications, software packages, routines, subroutines, objects, executables, threads of execution, procedures, functions, etc. should be interpreted broadly.

また、プログラム、命令などは、伝送媒体を介して送受信されてもよい。例えば、プログラムが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。   Further, programs, instructions, etc. may be transmitted / received via a transmission medium. For example, the program may use websites, servers, or other devices using wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave. When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission media.

本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。
Information, signals, etc. described herein may be represented using any of a variety of different technologies. For example, data, commands, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these May be represented by a combination of
Note that the terms described in this specification and / or terms necessary for understanding this specification may be replaced with terms having the same or similar meaning.

情報処理装置10は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。   The information processing apparatus 10 is a subscriber station, mobile unit, subscriber unit, wireless unit, remote unit, mobile device, wireless device, wireless communication device, remote device, mobile subscriber station, access terminal, mobile terminal by those skilled in the art. , Wireless terminal, remote terminal, handset, user agent, mobile client, client, or some other appropriate terminology.

本明細書で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。   As used herein, the terms “determining” and “determining” may encompass a wide variety of actions. “Judgment” and “determination” are, for example, judgment, calculation, calculation, processing, derivation, investigating, looking up (eg, table) , Searching in a database or another data structure), considering ascertaining as “determining”, “deciding”, and the like. In addition, “determination” and “determination” are reception (for example, receiving information), transmission (for example, transmitting information), input (input), output (output), and access. (Accessing) (eg, accessing data in a memory) may be considered as “determined” or “determined”. In addition, “determination” and “determination” means that “resolving”, “selecting”, “choosing”, “establishing”, and “comparing” are regarded as “determining” and “determining”. May be included. In other words, “determination” and “determination” may include considering some operation as “determination” and “determination”.

「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、あるいはこれらの組み合わせであってもよい。本明細書で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及び/又はプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」又は「結合」されると考えることができる。   The terms “connected”, “coupled”, or any variation thereof, means any direct or indirect connection or coupling between two or more elements and It can include the presence of one or more intermediate elements between two “connected” or “coupled” elements. The coupling or connection between the elements may be physical, logical, or a combination thereof. As used herein, the two elements are radio frequency by using one or more wires, cables and / or printed electrical connections, and as some non-limiting and non-inclusive examples By using electromagnetic energy, such as electromagnetic energy having a wavelength in the region, microwave region, and light (both visible and invisible) region, it can be considered to be “connected” or “coupled” to each other.

本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。   As used herein, the phrase “based on” does not mean “based only on,” unless expressly specified otherwise. In other words, the phrase “based on” means both “based only on” and “based at least on.”

本明細書で使用する「第1」、「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみがそこで採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 Any reference to elements using the designations “first”, “second”, etc. as used herein does not generally limit the amount or order of those elements. These designations can be used herein as a convenient way to distinguish between two or more elements. Thus, a reference to the first and second elements does not mean that only two elements can be employed there, or that in some way the first element must precede the second element.

「含む(including)」、「含んでいる(comprising)」、及びそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。   As long as the terms “including”, “comprising”, and variations thereof are used herein or in the claims, these terms are inclusive of the term “comprising”. Intended to be Further, the term “or” as used herein or in the claims is not intended to be an exclusive OR.

以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。   Although the present invention has been described in detail above, it will be apparent to those skilled in the art that the present invention is not limited to the embodiments described herein. The present invention can be implemented as modified and changed modes without departing from the spirit and scope of the present invention defined by the description of the scope of claims. Therefore, the description of the present specification is for illustrative purposes and does not have any limiting meaning to the present invention.

10…情報処理装置、101…制御部、102…記憶部、105…通信部、107…音声処理部、109…撮像部、1001…検出部、1002…生成部、1003…特定部、1004…記憶制御部。 DESCRIPTION OF SYMBOLS 10 ... Information processing apparatus 101 ... Control part 102 ... Memory | storage part 105 ... Communication part 107 ... Audio | voice processing part 109 ... Imaging part, 1001 ... Detection part, 1002 ... Generation | occurrence | production part, 1003 ... Specific | specification part, 1004 ... Memory | storage Control unit.

Claims (10)

第1画像内にある顔及び整理対象を検出する検出部と、
前記検出部が検出した前記整理対象の画像である第2画像を生成する生成部と、
前記検出部が検出した顔に対応した人物を特定する特定部と、
前記特定部が特定した人物と前記生成部が生成した第2画像とを対応付けて記憶部に記憶させる記憶制御部と
を備える情報処理装置。
A detection unit for detecting a face and an arrangement target in the first image;
A generation unit that generates a second image that is the image to be organized detected by the detection unit;
A specifying unit for specifying a person corresponding to the face detected by the detecting unit;
An information processing apparatus comprising: a storage control unit that associates the person specified by the specifying unit with the second image generated by the generation unit and stores the second image in the storage unit.
前記検出部は、前記第1画像内において手で持たれている物又は着用されている物を前記整理対象として検出する
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the detection unit detects an object held or worn by a hand in the first image as the organizing target.
前記人物毎に前記整理対象が設定することで、
前記検出部は、前記特定部が特定した人物に設定されている前記整理対象を検出する
請求項1又は請求項2に記載の情報処理装置。
By setting the organizing target for each person,
The information processing apparatus according to claim 1, wherein the detection unit detects the organizing target set for the person specified by the specifying unit.
前記整理対象をユーザの操作に応じて設定する
請求項1から請求項3のいずれか一項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 3, wherein the organization target is set according to a user operation.
前記特定部は、前記検出部が前記第1画像から複数の顔を検出した場合、前記検出部が検出した顔毎に対応する人物を特定し、
前記記憶制御部は、前記特定部が特定した一又は複数の人物と前記第2画像とを対応付けて前記記憶部に記憶させる
請求項1から請求項4のいずれか一項に記載の情報処理装置。
The identifying unit identifies a person corresponding to each face detected by the detecting unit when the detecting unit detects a plurality of faces from the first image;
The information processing according to any one of claims 1 to 4, wherein the storage control unit stores the one or more persons specified by the specifying unit and the second image in association with each other in the storage unit. apparatus.
前記生成部は、前記検出部が前記第1画像から複数の整理対象を検出した場合、前記検出部が検出した前記複数の整理対象毎に前記第2画像を生成し、
前記記憶制御部は、前記生成部が特定した一又は複数の前記第2画像と前記特定部が特定した人物とを対応付けて前記記憶部に記憶させる
請求項1から請求項4のいずれか一項に記載の情報処理装置。
When the detecting unit detects a plurality of organizing objects from the first image, the generating unit generates the second image for each of the plurality of organizing objects detected by the detecting unit,
The storage control unit stores the one or more second images specified by the generation unit and the person specified by the specification unit in association with each other and stores them in the storage unit. The information processing apparatus according to item.
前記特定部は、前記第1画像内において前記検出部が検出した顔の位置と、前記第1画像内において前記検出部が検出した前記整理対象との位置関係に応じて前記人物を特定する
請求項1から請求項6のいずれか一項に記載の情報処理装置。
The specifying unit specifies the person according to a positional relationship between a face position detected by the detection unit in the first image and the organizing target detected by the detection unit in the first image. The information processing apparatus according to any one of claims 1 to 6.
前記検出部が検出した顔に対応する人物をユーザの操作に応じて設定する
請求項1から請求項7のいずれか一項に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein a person corresponding to the face detected by the detection unit is set according to a user operation.
前記検出部は、前記第2画像から文字列を検出し、
前記記憶制御部は、前記特定部が特定した人物と前記検出部が検出した文字列とを対応付けて前記記憶部へ記憶させる
請求項1から請求項8のいずれか一項に記載の情報処理装置。
The detection unit detects a character string from the second image,
The information processing according to any one of claims 1 to 8, wherein the storage control unit stores the person specified by the specifying unit and the character string detected by the detection unit in association with each other in the storage unit. apparatus.
コンピュータを、
第1画像内にある顔及び整理対象を検出する検出部と、
前記検出部が検出した前記整理対象の画像である第2画像を生成する生成部と、
前記検出部が検出した顔に対応した人物を特定する特定部と、
前記特定部が特定した人物と前記生成部が生成した第2画像とを対応付けて記憶部に記憶させる記憶制御部
として機能させるためのプログラム。
Computer
A detection unit for detecting a face and an arrangement target in the first image;
A generation unit that generates a second image that is the image to be organized detected by the detection unit;
A specifying unit for specifying a person corresponding to the face detected by the detecting unit;
The program for functioning as a storage control unit that stores the person specified by the specifying unit and the second image generated by the generation unit in association with each other.
JP2016159131A 2016-08-15 2016-08-15 Information processing apparatus and program Pending JP2018028716A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016159131A JP2018028716A (en) 2016-08-15 2016-08-15 Information processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016159131A JP2018028716A (en) 2016-08-15 2016-08-15 Information processing apparatus and program

Publications (1)

Publication Number Publication Date
JP2018028716A true JP2018028716A (en) 2018-02-22

Family

ID=61248410

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016159131A Pending JP2018028716A (en) 2016-08-15 2016-08-15 Information processing apparatus and program

Country Status (1)

Country Link
JP (1) JP2018028716A (en)

Similar Documents

Publication Publication Date Title
US9836115B2 (en) Information processing device, information processing method, and program
CN105320404B (en) For executing the device and method of function
EP2363793A2 (en) Information processing apparatus, information processing method, and program
KR20150024526A (en) Information Obtaining Method and Apparatus
CN110456953A (en) File interface switching method and terminal device
EP3190527A1 (en) Multimedia data processing method of electronic device and electronic device thereof
CN109857494A (en) A kind of message prompt method and terminal device
CN109471690A (en) A kind of message display method and terminal device
WO2018004200A1 (en) Electronic device and information providing method thereof
CN111192005A (en) Government affair service processing method and device, computer equipment and readable storage medium
CN110069188A (en) Identification display method and terminal device
CN109857876A (en) A kind of information display method and terminal device
CN110232174A (en) A kind of content chooses method and terminal device
CN109815462A (en) A kind of document creation method and terminal device
CN109542311A (en) A kind of document handling method and electronic equipment
CN108845732A (en) A kind of information display method and terminal device
CN111444314A (en) Information processing method and electronic equipment
US10915778B2 (en) User interface framework for multi-selection and operation of non-consecutive segmented information
US11696017B2 (en) User interface for managing audible descriptions for visual media
CN109634508A (en) A kind of user information loading method and device
CN109460200A (en) A kind of information flag method and terminal device
CN109522523A (en) A kind of method and terminal device showing outline information
JP2018028716A (en) Information processing apparatus and program
CN112732133B (en) Message processing method and device, electronic equipment and storage medium
CN115134316A (en) Topic display method, device, terminal and storage medium