JP5120777B2 - Electronic data editing apparatus, electronic data editing method and program - Google Patents

Electronic data editing apparatus, electronic data editing method and program Download PDF

Info

Publication number
JP5120777B2
JP5120777B2 JP2008103107A JP2008103107A JP5120777B2 JP 5120777 B2 JP5120777 B2 JP 5120777B2 JP 2008103107 A JP2008103107 A JP 2008103107A JP 2008103107 A JP2008103107 A JP 2008103107A JP 5120777 B2 JP5120777 B2 JP 5120777B2
Authority
JP
Japan
Prior art keywords
image data
data
input
emotion
facial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008103107A
Other languages
Japanese (ja)
Other versions
JP2009253931A (en
JP2009253931A5 (en
Inventor
大聖 笠原
敬輔 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2008103107A priority Critical patent/JP5120777B2/en
Publication of JP2009253931A publication Critical patent/JP2009253931A/en
Publication of JP2009253931A5 publication Critical patent/JP2009253931A5/ja
Application granted granted Critical
Publication of JP5120777B2 publication Critical patent/JP5120777B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、メール作成機能付き携帯端末などの電子データの編集(作成)機能を備えた電子データ編集装置、電子データ編集方法及びプログラムに関する。   The present invention relates to an electronic data editing apparatus, an electronic data editing method, and a program having an electronic data editing (creating) function such as a portable terminal with a mail creating function.

たとえば、携帯電話機等のメール作成機能付き携帯端末は、テキストデータ等のメールデータ(文章データ)を任意に編集(作成)できるので、電子データの編集(作成)機能を備えた電子データ編集装置の一例である。以下、このメール作成機能付き携帯端末を「携帯電話機」とすると、この携帯電話機で作成可能なメールは、テキスト文字主体のメールまたは絵文字混在のメールであり、前者の無味乾燥なテキストメールに対して、絵文字混在メールは様々な絵文字(予め用意されたハートマークなどの多種多様なグラフィック記号のこと)を使用することができ、文字だけでは伝わりにくい感情を込めることができる。   For example, since a mobile terminal with a mail creation function such as a mobile phone can arbitrarily edit (create) mail data (text data) such as text data, an electronic data editing apparatus having an electronic data editing (creation) function can be used. It is an example. In the following, if the mobile terminal with this mail creation function is a “mobile phone”, the mail that can be created with this mobile phone is a text-based mail or a mixed pictogram mail. The pictogram mixed mail can use various pictograms (a wide variety of graphic symbols such as a heart symbol prepared in advance), and can express emotions that are difficult to convey only by letters.

しかし、絵文字混在メールは、いちいちリストから適当な絵文字を選択して、その絵文字をメール中に挿入しなければならず、この作業を手動で行うことから、面倒を否めなかった。   However, in the mixed pictogram mail, an appropriate pictogram must be selected from the list and the pictogram must be inserted into the mail, and this operation is performed manually.

そこで、メールの作成時に、ユーザの声をマイクで拾って感情を判断し、その感情から特定された絵文字を自動挿入するという技術が知られている(たとえば、特許文献1参照。)。   Therefore, a technique is known in which when a mail is created, a user's voice is picked up by a microphone, an emotion is judged, and a pictograph specified from the emotion is automatically inserted (for example, see Patent Document 1).

特開2006−277567号公報JP 2006-277567 A

しかしながら、上記の従来技術にあっては、絵文字などのように、手入力に時間がかかるデータを電子メールなどの編集データ(電子データ)中に自動挿入することが可能であるが、感情の判断に一定量の音声データが必要で、音声データの収集から感情判断までに相応の時間を要するため、感情を速やかに判断できず、電子データを編集する際の操作性を悪くするという問題点がある。
また、携帯電話機で絵文字を入力する場合に限らず、デジタルカメラで撮影した画像データにユーザが任意に入力した文字列からなる名称を付加するような場合にも操作性の問題点がある。つまり、通常のデジタルカメラでは、パーソナルコンピュータのような入力し易いキーボードや高度な入力支援機能を備えておらず、カーソルキーなどにより文字を入力する必要があるので、絵文字に限らず、文章そのものを入力するのも面倒であった。
However, in the above prior art, it is possible to automatically insert data such as pictograms that require time for manual input into editing data (electronic data) such as e-mail. Since a certain amount of audio data is required and it takes a certain amount of time from voice data collection to emotion judgment, emotions cannot be judged quickly, and the operability when editing electronic data is degraded. is there.
In addition to the case of inputting pictograms with a mobile phone, there is a problem in operability even when a name consisting of a character string arbitrarily input by a user is added to image data taken with a digital camera. In other words, a normal digital camera does not have a keyboard that is easy to input such as a personal computer or an advanced input support function, and it is necessary to input characters using cursor keys. It was troublesome to input.

そこで、本発明の目的は、手入力に時間のかかるデータを編集中の電子データに挿入する際の編集効率を向上させることのできる電子データ編集装置、電子データ編集方法及びプログラムを提供することにある。   Accordingly, an object of the present invention is to provide an electronic data editing apparatus, an electronic data editing method, and a program capable of improving editing efficiency when data that takes time for manual input is inserted into electronic data being edited. is there.

本発明による電子データ編集装置は、被写体を撮像して画像データを取得する撮像手段と、画像データ内の顔を検出し、この検出された顔の表情を識別して、複数のグループに分類される表情種別のいずれに該当するかを判定する判定手段と、ユーザの操作に応じて任意のテキストデータを入力する手動入力手段と、前記判定手段により判定可能な複数の表情種別の各々に対して、前記入力手段により予め入力されたテキストデータを対応付けて記憶する第1の記憶手段と、テキストデータの入力が必要なときに前記撮像手段により画像データが取得されると、この取得された画像データを対象として前記判定手段による表情種別の判定を行い、この判定された表情種別に対応して前記第1の記憶手段に記憶されているテキストデータを自動的に入力する自動入力手段と、前記撮像手段による新たな画像データの取得と、前記手動入力手段による任意の単語または短文を含むテキストデータの入力を行い、この取得された新たな画像データを対象として前記判定手段により判定された表情種別と、前記入力された任意の単語または短文を含むテキストデータとを対応付けて前記第1の記憶手段に追加登録する第1の登録手段と、を備えたことを特徴とする。
また、本発明による電子データ編集方法は、被写体を撮像して画像データを取得する撮像手段と、ユーザの操作に応じて任意のテキストデータを入力する手動入力手段と、を備えた電子データ編集装置の制御方法であって、前記電子データ編集装置のコンピュータに、画像データ内の顔を検出し、この検出された顔の表情を識別して、複数のグループに分類される表情種別のいずれに該当するかを判定する判定処理と、前記判定処理により判定可能な複数の表情種別の各々に対して、前記入力手段により予め入力されたテキストデータを対応付けて記憶手段に記憶する記憶処理と、テキストデータの入力が必要なときに前記撮像手段により画像データが取得されると、この取得された画像データを対象として前記判定処理による表情種別の判定を行い、この判定された表情種別に対応して前記記憶手段に記憶されたテキストデータを自動的に入力する自動入力処理と、前記撮像手段による画像データの取得と、前記手動入力手段による任意の単語または短文を含むテキストデータの入力を行い、この取得された画像データを対象として前記判定処理により判定された表情種別と、前記入力された任意の単語または短文を含むテキストデータとを対応付けて前記記憶手段に追加登録する登録処理と、を実行させることを特徴とする。
また、本発明によるプログラムは、被写体を撮像して画像データを取得する撮像手段を備える電子データ編集装置のコンピュータを、画像データ内の顔を検出し、この検出された顔の表情を識別して、複数のグループに分類される表情種別のいずれに該当するかを判定する判定手段と、ユーザの操作に応じて任意のテキストデータを入力する手動入力手段と、前記判定手段により判定可能な複数の表情種別の各々に対して、前記入力手段により予め入力されたテキストデータを対応付けて記憶する第1の記憶手段と、テキストデータの入力が必要なときに前記撮像手段により画像データが取得されると、この取得された画像データを対象として前記判定手段による表情種別の判定を行い、この判定された表情種別に対応して前記第1の記憶手段に記憶されているテキストデータを自動的に入力する自動入力手段と、前記撮像手段による画像データの取得と、前記手動入力手段による任意の単語または短文を含むテキストデータの入力を行い、この取得された画像データを対象として前記判定手段により判定された表情種別と、前記入力された任意の単語または短文を含むテキストデータとを対応付けて前記第1の記憶手段に追加登録する第1の登録手段として機能させることを特徴とする。
An electronic data editing apparatus according to the present invention includes an imaging unit that captures an image of a subject and acquires image data, and detects a face in the image data, identifies the facial expression detected, and is classified into a plurality of groups. For each of a plurality of facial expression types that can be determined by the determination unit, a manual input unit that inputs arbitrary text data in response to a user operation The first storage means for storing the text data input in advance by the input means in association with the image data acquired by the imaging means when the text data needs to be input; The determination means determines the expression type for the data, and the text data stored in the first storage means corresponding to the determined expression type is automatically selected. It applies an automatic input means for inputting, acquisition of a new image data by the imaging unit, performs input of text data, including any words or short by the manual input means, the acquired new image data to the First registration means for additionally registering the facial expression type determined by the determination means and text data including the input arbitrary word or short sentence in association with the first storage means; the shall be the feature.
Also, an electronic data editing method according to the present invention includes an imaging unit that captures an image of a subject and acquires image data, and a manual input unit that inputs arbitrary text data in accordance with a user operation. The electronic data editing apparatus detects a face in image data, identifies the detected facial expression, and corresponds to any of the facial expression types classified into a plurality of groups. or a determination processing for a storage process of the for each determinable plurality of facial types by determination processing in the storage means in association with the text data previously input by the input means, the text When image data is acquired by the imaging means when data input is required, the facial expression type is determined by the determination process for the acquired image data. Was carried out, an automatic input process of inputting text data stored in the storage means in response to the determined facial expression types automatically, the acquisition of image data by the imaging means, of any by the manual input means Text data including a word or short sentence is input, and the facial expression type determined by the determination process for the acquired image data is associated with the text data including the input arbitrary word or short sentence. it characterized in that to execute a registration process for additionally registering in the storage means.
In addition, the program according to the present invention detects a face in image data and identifies the detected facial expression by using a computer of an electronic data editing apparatus including an imaging unit that captures an image of a subject and acquires image data. Determination means for determining which facial expression type is classified into a plurality of groups, manual input means for inputting arbitrary text data in response to a user operation, and a plurality of determinations that can be determined by the determination means Image data is acquired by the first storage means for storing the text data previously input by the input means in association with each expression type, and when the text data needs to be input, by the imaging means. And determining the expression type by the determination means for the acquired image data, and corresponding to the determined expression type, the first memory An automatic input means automatically inputs the text data stored in the acquisition of image data by the imaging unit, performs input of text data, including any words or short by the manual input means, is the acquisition First registration means for additionally registering the expression type determined by the determination means for the received image data and the text data including the input arbitrary word or short sentence in association with each other It is made to function as you characterized.

本発明によれば、手入力に時間のかかるデータを編集中の電子データに挿入する際の編集効率を向上させることのできる電子データ編集装置、電子データ編集方法及びプログラムを提供することができる。   According to the present invention, it is possible to provide an electronic data editing apparatus, an electronic data editing method, and a program capable of improving editing efficiency when data that takes time for manual input is inserted into electronic data being edited.

以下、本発明の実施形態をカメラ付き携帯電話機を例にして、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described by taking a camera-equipped mobile phone as an example with reference to the drawings.

まず、本実施形態における用語の定義を行う。メール又はメールデータとは、テキストデータ等の文字主体のものを指すことはもちろんのこと、文字情報に加えて書式情報等の付加情報や文字以外の任意情報(画像情報等)を含むものも指す。これは、たとえば、携帯電話機では一般的にテキストメールが多用されているものの、一部の携帯電話機やパーソナルコンピュータでは、文字修飾や画像等の埋め込みが可能な非テキストメール(HTML形式などの電子データ)の編集や作成ができるようになっているからである。また、本実施形態における「編集」又は「編集処理」とは、すでに作成済みの電子データ(上記のメールデータ等)に加筆修正を加えることを意味する他、新規に電子データを作成することも意味する。また、「挿入データ」とは、編集対象の電子データに挿入又は合成されるデータのことをいい、たとえば、編集対象の電子データが「画像データ」である場合は、画像合成などによって挿入が可能な画像データであり、あるいは、編集対象の電子データがテキストデータ等の文章データである場合は、その文章データの指定位置に追加挿入が可能な文章データ(たとえば、テキストデータ)である。ただし、これらは説明のための一例に過ぎず、編集対象の電子データに挿入可能な形態のデータであれば、如何なるものであっても構わない。   First, terms in this embodiment are defined. The e-mail or e-mail data refers not only to text-based data such as text data, but also to data that includes additional information such as format information and optional information other than characters (image information, etc.) in addition to character information. . This is because, for example, text mail is generally used frequently in mobile phones, but some mobile phones and personal computers use non-text mail (electronic data such as HTML format) that can embed characters and images. ) Can be edited and created. In addition, “editing” or “editing process” in the present embodiment means that the electronic data that has already been created (e.g., the above-mentioned mail data) is modified or modified, and that new electronic data can be created. means. “Inserted data” refers to data that is inserted or synthesized into electronic data to be edited. For example, when the electronic data to be edited is “image data”, it can be inserted by image synthesis or the like. If the image data is image data or the electronic data to be edited is text data such as text data, it is text data (for example, text data) that can be additionally inserted at a specified position of the text data. However, these are merely examples for explanation, and any data can be used as long as it can be inserted into electronic data to be edited.

図1は、カメラ付き携帯電話機のブロック図である。この図において、カメラ付き携帯電話機(以下、単に「携帯電話機」という。)1は、アンテナ2を介して最寄りの携帯電話基地局(不図示)との間で音声通信またはメールを含むデータ通信を行う通信部3と、被写体を静止画撮影またはスルー画像撮影してその画像データを生成するCCDやCMOS等の撮像デバイスを含む撮像部4と、電話番号/文字入力兼用のテンキー、オンフックキー、オフフックキー、シャッタキー、カーソルキー及び各種の機能キーを含む操作部5と、発着信電話番号の表示や静止画撮影またはスルー画像撮影時の電子ファインダー、撮像画像の確認・再生表示及びメールの作成や閲覧に用いられる液晶ディスプレイ等からなる表示部6と、音声通話用マイク7及び同スピーカ8と、画像データや送受信メールデータ並びに電話帳等のその他のデータを記憶保存する記憶部9と、パーソナルコンピュータ等の外部機器10との間で画像データなどのやり取りを仲介する入出力部11と、一次電池または二次電池を含む電源部12と、与えられた画像データの中から人物の顔を抽出し、その顔の表情(笑い顔、泣き顔、怒った顔、無表情・・・・等)を判定して、その判定結果を示す感情データを発生する感情判定部13と、CPU14aやPROM14b及びRAM14c並びにI/O14dなどを含むマイクロコンピュータで構成され、以上の各部の動作を統括制御する制御部14とを有する。   FIG. 1 is a block diagram of a camera-equipped mobile phone. In this figure, a camera-equipped mobile phone (hereinafter simply referred to as “mobile phone”) 1 performs voice communication or data communication including mail via an antenna 2 with the nearest mobile phone base station (not shown). A communication unit 3 to perform, an imaging unit 4 including an imaging device such as a CCD or CMOS that captures a still image or a through image of a subject and generates image data thereof, a numeric keypad for both telephone number / character input, an on-hook key, and an off-hook Operation unit 5 including keys, shutter keys, cursor keys and various function keys, display of incoming / outgoing telephone numbers, electronic viewfinder during still image shooting or through image shooting, confirmation / playback display of captured images, creation of e-mail, Display unit 6 composed of a liquid crystal display or the like used for browsing, voice call microphone 7 and speaker 8, image data, and sent / received mail Data and other data such as a telephone directory, an input / output unit 11 that mediates exchange of image data and the like with an external device 10 such as a personal computer, and a primary battery or a secondary battery And a power supply unit 12 including a human face is extracted from given image data, and facial expressions (laughing face, crying face, angry face, expressionlessness,...) Are determined and It includes an emotion determination unit 13 that generates emotion data indicating the determination result, and a control unit 14 that is configured by a microcomputer including a CPU 14a, a PROM 14b, a RAM 14c, an I / O 14d, and the like, and controls the operations of the above-described units.

図2は、感情判定部13の概念構成図である。この図において、感情判定部13は、前記のとおり、「与えられた画像データの中から人物の顔を抽出し、その顔の表情(笑い顔、泣き顔、怒った顔、無表情・・・・等)を判定して、その判定結果を示す感情データを発生する」という機能を有している。ここで、“感情”とは、正確には人間の心理状態のことをいうが、実際上、心理状態の把握は不可能または困難であるので、ここでは、心理状態と一定の相関がある「顔の表情」を感情と定義する。つまり、「感情=顔の表情」であるとする。   FIG. 2 is a conceptual configuration diagram of the emotion determination unit 13. In this figure, as described above, the emotion determination unit 13 extracts “a person's face from the given image data, and expresses the facial expression (laughing face, crying face, angry face, no expression,... Etc.) and generate emotion data indicating the determination result ”. Here, “emotion” accurately refers to the human psychological state, but in practice, it is impossible or difficult to grasp the psychological state, and here, there is a certain correlation with the psychological state. “Facial expression” is defined as emotion. That is, it is assumed that “emotion = facial expression”.

顔の表情から感情(≒心理状態)を判断する公知技術としては、たとえば、特開2007−65969号公報に記載の「表情から心理状態を推定する方法」が知られているので、図示の感情判定部13にも、その方法を利用してもよい。   As a known technique for judging emotion (≈ psychological state) from facial expressions, for example, “Method of Estimating Psychological State from Facial Expression” described in Japanese Patent Application Laid-Open No. 2007-65969 is known. The method may also be used for the determination unit 13.

ちなみに、同公報記載の方法の原理は、「ヒトの画像から、左右の眼および口の形状をフーリエ記述子を用いて定量的に表し、これらの口および左右の眼の形状をそれぞれ表すフーリエ記述子を用いた線形判別式により、口および左右の眼のそれぞれの形状について、あらかじめ設定されている複数の基本感情について判定得点を算出して正規化することにより、それぞれの形状における上記各基本感情に関する感情確信度を求め、各表情要素ごとの重要度を加味した重回帰式を用いて計算し、その結果からヒトの心理状態を推定する。」というものである   By the way, the principle of the method described in this publication is that “the Fourier description that quantitatively represents the shape of the left and right eyes and mouth using a Fourier descriptor from a human image, and represents the shape of these mouth and left and right eyes, respectively. By calculating and normalizing the determination score for a plurality of preset basic emotions for each shape of the mouth and the left and right eyes by a linear discriminant using a child, the above basic emotions in each shape are calculated. Is calculated using a multiple regression equation that takes into account the importance of each facial expression element, and the psychological state of the person is estimated from the result. "

感情判定部13は、与えられた画像データG(この画像データGは撮像部4で撮像された静止画像またはスルー画像であってもよいし、あるいは、記憶部9に保存されている撮影済みの静止画像、若しくは外部機器10から入力された静止画像であってもよい。)の中から人物(ヒト)の顔を抽出する顔抽出部15と、顔抽出ありを判定する第一判定部16と、顔抽出ありを判定した場合に、抽出された顔の表情を識別(たとえば、笑顔、泣き顔、怒った顔・・・・等)して各表情ごとの確度値(その表情の「確からしさ」を示す値)を設定する表情識別部17と、表情識別部17における各表情ごとの確度値のうち最大の確度値を持つものを判定する第二判定部18と、この第二判定部18の判定結果に対応した選択信号を出力する選択部19と、この選択信号に従って複数の感情データの中から一つの感情データ取り出して出力する感情データ出力部20とを有する。   The emotion determination unit 13 may be given image data G (this image data G may be a still image or a through image captured by the imaging unit 4 or may be a captured image stored in the storage unit 9. A face extraction unit 15 that extracts a human (human) face from a still image or a still image input from the external device 10; and a first determination unit 16 that determines whether a face is extracted. When it is determined that there is face extraction, the extracted facial expression is identified (for example, a smile, a crying face, an angry face, etc.) and the accuracy value for each facial expression (the “probability” of the expression) Of the facial expression identification unit 17 for setting the facial expression identification unit 17, the second determination unit 18 that determines the accuracy value for each facial expression in the facial expression identification unit 17, and the second determination unit 18 A selection unit that outputs a selection signal corresponding to the determination result 9, and an emotion data output unit 20 for outputting removed one emotion data from a plurality of emotion data according to the selection signal.

ここで、表情識別部17は、表情ごとの複数の表情識別器を有している。具体的には、図示の例では、笑顔を識別するための笑顔識別器17a、泣き顔を識別するための泣き顔識別器17b及び怒った顔を識別するための怒った顔識別器17cを有しているが、これらは一例に過ぎない。他の表情に対応した識別器を備えていてもよいし、あるいは、図示の識別器のいずれかを省いたり、入れ替えたりしてもよい。または、一つの表情(たとえば、笑顔)だけを識別する単一の構成であってもよい。   Here, the facial expression identification unit 17 has a plurality of facial expression classifiers for each facial expression. Specifically, the illustrated example includes a smile classifier 17a for identifying a smile, a crying face classifier 17b for identifying a crying face, and an angry face classifier 17c for identifying an angry face. However, these are only examples. A classifier corresponding to another facial expression may be provided, or any of the classifiers illustrated may be omitted or replaced. Alternatively, it may be a single configuration that identifies only one facial expression (for example, a smile).

なお、上記例示の「笑顔」や「泣き顔」及び「怒った顔」は、同一人物の異なる表情を分類するための「表情種別」の一例であるが、この表情種別は、複数の異なる人物を分類するものではなく、複数の人物に共通して用いられる表情の分類である。   The “smile”, “crying face”, and “angry face” in the above examples are examples of “expression types” for classifying different facial expressions of the same person. It is not a classification but a classification of facial expressions commonly used by a plurality of persons.

感情データ出力部20は、前記の表情識別部17で識別される表情の数+1個のデータ出力器を備える。すなわち、図示の例では、表情識別部17は三つの識別器(笑顔識別器17a、泣き顔識別器17b及び怒った顔識別器17c)を備えているので、感情データ出力部20は、笑顔データを出力するための笑顔データ出力器20aと、泣き顔データを出力するための泣き顔データ出力器20bと、怒った顔データを出力するための怒った顔データ出力器20cとを備えると共に、さらに、どの表情にも該当しない場合の無表情データを出力するための無表情データ出力器20dを備える。   The emotion data output unit 20 includes the number of facial expressions identified by the facial expression identification unit 17 plus one data output unit. That is, in the illustrated example, the facial expression identification unit 17 includes three classifiers (smiling classifier 17a, crying face classifier 17b, and angry face classifier 17c), so the emotion data output unit 20 stores smile data. A smile data output device 20a for outputting, a crying face data output device 20b for outputting crying face data, and an angry face data output device 20c for outputting angry face data. Is provided with an expressionless data output device 20d for outputting expressionless data when the above does not apply.

これら四つのデータ出力器(笑顔データ出力器20a、泣き顔データ出力器20b、怒った顔データ出力器20c及び無表情データ出力器20d)から取り出される顔データは、各々の表情を模してデザインされた表情アイコンであってもよく、または顔文字や絵文字であってもよい。あるいは、それらの表情アイコン、顔文字または絵文字を特定するためのコードデータ等の識別情報であってもよい。   The face data taken out from these four data output devices (smile data output device 20a, crying face data output device 20b, angry face data output device 20c and expressionless data output device 20d) are designed to imitate each expression. It may be a facial expression icon, or may be an emoticon or a pictograph. Alternatively, it may be identification information such as code data for specifying those facial expression icons, emoticons or pictograms.

このような構成において、感情判定部13に任意の画像データGを与えると、まず、顔抽出部15で人物の顔が抽出され、次いで、第一判定部16で顔抽出ありか否かが判定される。そして、顔抽出ありでなければ、人物の顔が写っていない画像データであると判断して、その旨を示すデータを出力する。   In such a configuration, when arbitrary image data G is given to the emotion determination unit 13, first, the face extraction unit 15 extracts a human face, and then the first determination unit 16 determines whether or not there is face extraction. Is done. If there is no face extraction, it is determined that the image data does not include a person's face, and data indicating that fact is output.

一方、顔抽出ありを判定した場合は、表情識別部17で、その抽出された顔の表情を識別する。たとえば、抽出された顔が笑顔である場合は、笑顔識別器17aの確度値に大きな値が与えられ、他の識別器(泣き顔識別器17bや怒った顔識別器17c)の確度値に小さな値が与えられる。第二判定部18は、それぞれの確度値を比較し、選択部19は、最も大きい確度値の表情に対応した感情データ(笑顔データ)取り出すための選択信号を出力し、感情データ出力部20は、この選択信号に従って複数の感情データの中から一つの感情データ、この場合は、笑顔データ出力器20aの笑顔データ(笑顔アイコン、笑顔の絵文字または顔文字若しくはそれらを特定するための識別情報)を取り出して出力する。   On the other hand, when it is determined that there is face extraction, the facial expression identification unit 17 identifies the facial expression of the extracted face. For example, when the extracted face is a smile, a large value is given to the accuracy value of the smile classifier 17a, and a small value is given to the accuracy value of the other classifiers (crying face classifier 17b and angry face classifier 17c). Is given. The second determination unit 18 compares the respective accuracy values, the selection unit 19 outputs a selection signal for extracting emotion data (smile data) corresponding to the facial expression having the largest accuracy value, and the emotion data output unit 20 In accordance with this selection signal, one emotion data out of a plurality of emotion data, in this case, smile data (smile icon, smile pictogram or emoticon or identification information for specifying them) of the smile data output device 20a. Take out and output.

このように、感情判定部13では、与えられた画像データGの中から人物の顔を抽出し、その顔の表情(笑い顔、泣き顔、怒った顔、無表情・・・・等)を判定して、その判定結果を示す感情データを発生することができる。なお、各表情の確度値が同等であった場合は、無表情とみなし、無表情データ出力器20dのデータ(無表情アイコン、無表情の絵文字または顔文字若しくはそれらを特定するための識別情報)を取り出して出力する。   As described above, the emotion determination unit 13 extracts the face of a person from the given image data G, and determines the facial expression (laughing face, crying face, angry face, no expression, etc.). Thus, emotion data indicating the determination result can be generated. In addition, when the accuracy value of each facial expression is equivalent, it is regarded as an expressionless and data of the expressionless data output unit 20d (expressionless icon, expressionless pictogram or emoticon or identification information for specifying them) Is output.

図3は、メール作成及び送信処理のフローを示す図である。このフローは、制御部14のPROM14bに予め格納されている制御プログラムの一部であり、ユーザイベント(ユーザによるメール作成や送信の操作イベント)に応答して制御部14のRAM14cに読み出され、制御部14のCPU14aによって実行されるものである。   FIG. 3 is a diagram showing a flow of mail creation and transmission processing. This flow is a part of a control program stored in advance in the PROM 14b of the control unit 14, and is read into the RAM 14c of the control unit 14 in response to a user event (an operation event for mail creation or transmission by the user). It is executed by the CPU 14a of the control unit 14.

このフローは、フロー開始直後に実行されるテキスト編集ブロックB1と、その後に続けて実行される感情マーク挿入ブロックB2とに大別することができる。まず、テキスト編集ブロックB1では、メール件名用のテキストデータが入力されたか否かを判定し(ステップS1)、入力されていれば、メール件名の指定位置(カーソル位置)に、そのテキストデータを挿入する(ステップS2)。次いで、メール本文用のテキストデータが入力されたか否かを判定し(ステップS3)、入力されていれば、メール本文の指定位置(カーソル位置)に、そのテキストデータを挿入する(ステップS4)。   This flow can be broadly divided into a text editing block B1 executed immediately after the start of the flow and an emotion mark insertion block B2 executed subsequently. First, in the text editing block B1, it is determined whether or not text data for the mail subject has been input (step S1). If it has been input, the text data is inserted at the specified position (cursor position) of the mail subject. (Step S2). Next, it is determined whether or not text data for the mail body has been input (step S3), and if it has been input, the text data is inserted at the designated position (cursor position) of the mail body (step S4).

次に、感情マーク挿入ブロックB2では、まず、メール添付用の画像データの有無を判定する(ステップS5)。ここで、メール添付用の画像データは、メール作成中に撮像部4で撮像した自分自身の顔写真(静止画像)であることを典型とするが、これ以外のもの、たとえば、記憶部9に記憶されている過去に撮影された顔写真であってもよい。要は、感情を抽出するための適当な顔写真であればよい。また、他の人物の顔写真であってもよい。   Next, in the emotion mark insertion block B2, first, the presence / absence of image data for mail attachment is determined (step S5). Here, the image data for mail attachment is typically a face photograph (still image) taken by the image pickup unit 4 during mail creation, but other than this, for example, in the storage unit 9 It may be a stored face photograph taken in the past. In short, any suitable face photo for extracting emotions may be used. It may also be a face photo of another person.

メール添付用の画像データなしの場合は、この感情マーク挿入ブロックB2から抜けてメール作成完了(ユーザによるメール編集の完了操作)を判定し(ステップS13)、完了していなければ、再びテキスト編集ブロックB1を実行し、完了していれば、メールを送信(ステップS14)した後、フローを終了する。   If there is no image data for mail attachment, the process leaves the emotion mark insertion block B2 to determine completion of mail creation (mail editing completion operation by the user) (step S13). If B1 is executed and completed, the mail is transmitted (step S14), and then the flow ends.

一方、メール添付用の画像データありの場合は、その画像データを感情判定部13に送り、この感情判定部13によって顔を検出し(ステップS6)、顔が検出されなかった場合(ステップS7のNO)は、感情マーク挿入ブロックB2から抜けてメール作成完了(ユーザによるメール編集の完了操作)を判定し(ステップS13)、完了していなければ、再びテキスト編集ブロックB1を実行し、完了していれば、メールを送信(ステップS14)した後、フローを終了する。   On the other hand, when there is image data for mail attachment, the image data is sent to the emotion determination unit 13, and the emotion determination unit 13 detects a face (step S6). If no face is detected (step S7). NO) exits the emotion mark insertion block B2 and determines that the mail creation is complete (the mail editing completion operation by the user) (step S13). If not completed, the text editing block B1 is executed again and completed. Then, after sending the mail (step S14), the flow ends.

他方、顔が検出された場合(ステップS7のYES)は、顔の表情を認識して感情を判定し(ステップS8)、次いで、感情マークの自動合成モードが選択されているか否かを判定する(ステップS9)。感情マークの自動合成モードとは、予めユーザによって選択されるモードであって、このモードが選択されている場合に、メールに添付する画像データへの感情マークの自動合成を許容するというモードである。   On the other hand, if a face is detected (YES in step S7), emotions are determined by recognizing facial expressions (step S8), and then it is determined whether the emotion mark automatic synthesis mode is selected. (Step S9). The emotion mark automatic composition mode is a mode selected in advance by the user, and when this mode is selected, the automatic combination of the emotion mark to the image data attached to the mail is allowed. .

感情マークの自動合成モードが選択されている場合、判定された感情に対応する感情マークを生成して添付画像内の指定位置に合成し(ステップS10)、次いで、感情文字の自動挿入モードが選択されているか否かを判定する(ステップS11)。感情文字の自動挿入モードとは、予めユーザによって選択されるモードであって、このモードが選択されている場合に、メール件名やメール本文中への感情文字の自動挿入を許容するというモードである。   When the emotion mark automatic synthesis mode is selected, an emotion mark corresponding to the determined emotion is generated and synthesized at the designated position in the attached image (step S10), and then the emotion character automatic insertion mode is selected. It is determined whether or not it is performed (step S11). The emotion character automatic insertion mode is a mode selected in advance by the user, and when this mode is selected, the automatic insertion of emotion characters in the mail subject or mail text is allowed. .

感情文字の自動挿入モードが選択されている場合、判定された感情に対応する絵文字を生成してメールの件名または本文の指定位置(カーソル位置)に合成する(ステップS12)。なお、感情マークの自動合成モードが選択されていない場合はステップS10をパスし、また、感情文字の自動挿入モードが選択されていない場合はステップS12をパスする。   If the emotion character automatic insertion mode is selected, a pictograph corresponding to the determined emotion is generated and combined with the specified subject position (cursor position) of the subject of the mail or the text (step S12). If the emotion mark automatic composition mode is not selected, step S10 is passed, and if the emotion character automatic insertion mode is not selected, step S12 is passed.

図4は、感情マークの自動合成モードと感情文字の自動挿入モードとを示す概念図である。(a)に示すように、感情マークの自動合成モードでは、対象となる画像データ21(メールに添付する画像データ)の所定位置(たとえば、点線で示すコーナ部分のいずれか)に感情マーク22を合成する。また、(b)に示すように、感情文字の自動挿入モードでは、メール23の件名または本文の指定位置(カーソル位置)に顔文字(または顔絵文字)24、25を挿入する。   FIG. 4 is a conceptual diagram showing an emotion mark automatic synthesis mode and an emotion character automatic insertion mode. As shown in (a), in the emotion mark automatic composition mode, the emotion mark 22 is placed at a predetermined position (for example, one of the corners indicated by a dotted line) of the target image data 21 (image data attached to an email). Synthesize. Also, as shown in (b), in the emotional character automatic insertion mode, emoticons (or emoticons) 24 and 25 are inserted at designated positions (cursor positions) in the subject or body of the mail 23.

このように、本実施形態によれば、メール作成中に撮像部4を用いて自分の顔を静止画撮影するだけで、そのときの自分の感情に対応した顔文字(または顔絵文字)24、25をメール23の件名や本文に自動挿入することができる。   As described above, according to the present embodiment, the face character (or face pictogram) 24 corresponding to his / her emotion at that time can be obtained simply by taking a still image of his / her face using the image pickup unit 4 during mail creation. 25 can be automatically inserted in the subject and body of the mail 23.

このとき、撮像部4の静止画撮影はシャッタ操作とほぼ同時に完了し、且つ、感情判定部13における顔抽出や感情判断もほとんど一瞬で完了するので、結局、前記の従来技術のような音声データに基づく感情判断に比べて、きわめて短時間のうちに感情判断から絵文字または顔文字の挿入までの一連の処理を終えることができ、それ故、ユーザの感情を速やかに判断してメールの作成に反映できるメール作成機能付き携帯端末を提供することができるのである。また、感情の判定をメールに添付する画像データから行っているので、改めて感情判定用の画像データを用意する必要がなく、手間の軽減を図ることができる。   At this time, the still image shooting of the imaging unit 4 is completed almost simultaneously with the shutter operation, and the face extraction and emotion determination in the emotion determination unit 13 are also completed almost instantly. Compared to emotion judgment based on, a series of processes from emotion judgment to emoji or emoticon insertion can be completed in a very short time. It is possible to provide a mobile terminal with a mail creation function that can be reflected. In addition, since emotion determination is performed from image data attached to an email, it is not necessary to prepare image data for emotion determination again, thereby reducing labor.

加えて、本実施形態によれば、図4(a)に示すように、メールに添付する画像データの所定位置に感情マークを自動合成できるので、メールの受信者に対して、送信者の感情を可視化して伝えることができ、感情伝達の確実性を高めることができる。   In addition, according to the present embodiment, as shown in FIG. 4A, since an emotion mark can be automatically synthesized at a predetermined position of image data attached to an email, the emotion of the sender is given to the recipient of the email. Can be visualized, and the certainty of emotion transmission can be improved.

なお、上記の説明では、メール23の件名や本文に顔文字(文字キャラクタを組み合わせて顔のようにしたもの。)24、25を挿入しているが、これに限定されない。メールシステムの仕様上、許可されていれば、たとえば、顔アイコンや絵文字等のグラフィックデータを挿入してもよい。   In the above description, emoticons (characters are combined to make a face) 24 and 25 are inserted in the subject and body of the mail 23, but the present invention is not limited to this. For example, graphic data such as a face icon or a pictograph may be inserted if permitted by the specification of the mail system.

本願の技術は、以上の実施形態に限定されず、その思想の範囲内において様々な変形例や発展例を包含することはもちろんであり、たとえば、以下のようにしてもよい。   The technology of the present application is not limited to the above-described embodiment, and various modifications and development examples are included within the scope of the idea. For example, the following may be adopted.

図5は、第一の変形例を示す図であり、詳細には、図3の感情マーク挿入ブロックB2のステップS5〜ステップS8に置き換わる要部フローを示す図である。この第一変形例では、まず、メール添付用の画像データ(以下、添付用画像データという。)が撮影されたか否かを判定し(ステップS15)、添付用画像データが撮影された場合は、その添付用画像データを記憶部9に保存(ステップS16)してから新たな画像データ(以下、感情判定用画像データという。)が撮影されたか否かを判定(ステップS17)する。   FIG. 5 is a diagram showing a first modified example, and more specifically, is a diagram showing a main part flow replacing step S5 to step S8 of the emotion mark insertion block B2 of FIG. In this first modification, first, it is determined whether image data for mail attachment (hereinafter referred to as image data for attachment) has been photographed (step S15), and when image data for attachment has been photographed, After the image data for attachment is stored in the storage unit 9 (step S16), it is determined whether new image data (hereinafter referred to as emotion determination image data) has been captured (step S17).

添付用画像データが撮影されなかった場合は、ステップS16をパスして、感情判定用画像データが撮影されたか否かを判定(ステップS17)する。そして、感情判定用画像データが撮影されなかった場合は、感情マーク挿入ブロックB2を抜けてステップS13(メール作成完了判定)に進み、感情判定用画像データが撮影された場合は、その感情判定用画像データを感情判定部13に送り、この感情判定部13によって、感情判定用画像データから顔を検出し(ステップS18)、顔が検出されなかった場合(ステップS19のNO)は、感情マーク挿入ブロックB2から抜けてステップS13(メール作成完了判定)に進む。   If the image data for attachment has not been photographed, step S16 is passed to determine whether or not the image data for emotion determination has been photographed (step S17). If the emotion determination image data has not been shot, the process passes through the emotion mark insertion block B2 and proceeds to step S13 (email creation completion determination). If the emotion determination image data has been shot, the emotion determination image data is acquired. The image data is sent to the emotion determination unit 13, and the emotion determination unit 13 detects a face from the image data for emotion determination (step S18). If no face is detected (NO in step S19), an emotion mark is inserted. The process leaves block B2 and proceeds to step S13 (mail creation completion determination).

顔が検出された場合(ステップS19のYES)は、顔の表情を認識して感情を判定し(ステップS20)、次いで、判定された感情を示す感情マークを画面上に表示する(ステップS21)。そして、ユーザの選択指示を判定し(ステップS22)、選択指示なしの場合は、繰り返しを判定(ステップS23)して、繰り返しありの場合は、再び、ステップS17(感情判定用画像データの撮影判定)に復帰し、繰り返しなしの場合は、感情マーク挿入ブロックB2を抜けてステップS13(メール作成完了判定)に進み、選択指示ありの場合は、選択指示がなされたタイミングで判定されている感情を採用する(ステップS24)。   When a face is detected (YES in step S19), the facial expression is recognized to determine an emotion (step S20), and then an emotion mark indicating the determined emotion is displayed on the screen (step S21). . Then, the user's selection instruction is determined (step S22). If there is no selection instruction, the repetition is determined (step S23), and if there is a repetition, step S17 (photographing determination of image data for emotion determination) is performed again. If there is no repetition, the emotion mark insertion block B2 is skipped and the process proceeds to step S13 (email creation completion determination). If there is a selection instruction, the emotion determined at the timing when the selection instruction is given. Adopt (step S24).

以降、図3の感情マーク挿入ブロックB2と同様に、感情マークの自動合成モードが選択されているか否かを判定する(ステップS9)。そして、選択されていれば、判定された感情に対応する感情マークを生成して添付用画像データ内の指定位置に合成し(ステップS10)、次いで、感情文字の自動挿入モードが選択されているか否かを判定する(ステップS11)。そして、選択されていれば、判定された感情に対応する絵文字を生成してメールの件名または本文の指定位置(カーソル位置)に合成する(ステップS12)。   Thereafter, similarly to the emotion mark insertion block B2 of FIG. 3, it is determined whether or not the emotion mark automatic synthesis mode is selected (step S9). If it is selected, an emotion mark corresponding to the determined emotion is generated and combined with the designated position in the attached image data (step S10), and then the emotion character automatic insertion mode is selected. It is determined whether or not (step S11). If it is selected, a pictograph corresponding to the determined emotion is generated and combined with the designated subject position (cursor position) of the subject of the mail or the text (step S12).

この第一の変形例では、メールに添付する画像データ(添付用画像データ)と、感情判定用の画像データ(感情判定用画像データ)とを別にしているため、メールに添付する画像データ(添付用画像データ)に任意のものを使用することができるようになり、添付用画像データの自由度が高まる。   In this first modification, image data attached to an email (image data for attachment) and image data for emotion determination (image data for emotion determination) are separated, so image data attached to the email ( Arbitrary data can be used for the attached image data, and the degree of freedom of the attached image data is increased.

加えて、感情判定用画像データを繰り返し撮影しながら、または、スルー画像を撮影しながら、所望の感情判定が得られたときに、その感情判定結果を選択指示すればよいので、表情を変えながら試行錯誤的に感情判定を行うことができ、希望の感情表現にマッチした顔文字や感情マークを選択して添付用画像データに合成したりメールに挿入したりすることができる。   In addition, when the desired emotional determination is obtained while repetitively capturing the image data for emotion determination or while capturing a through image, it is only necessary to indicate the selection result of the emotion determination result. Emotion determination can be performed through trial and error, and emoticons and emotion marks that match the desired emotion expression can be selected and combined with image data for attachment or inserted into an email.

図6は、所望の感情判定結果の選択指示概念図である。この図において、表示部6の画面上には、感情判定用画像データの確認用表示領域26が設けられていると共に、過去に遡って撮影された1乃至数枚の感情判定用画像データのそれぞれの感情判定結果を示すアイコンが表示されている。たとえば、図示の例では、上から順に無表情アイコン27、泣き顔アイコン28、笑顔アイコン29が表示されている。ユーザは意図した感情のアイコンを選択すればよく、たとえば、この図では、カーソル30が位置している笑顔アイコン29を、意図したアイコンとして選択指定することができる。   FIG. 6 is a conceptual diagram for selecting a desired emotion determination result. In this figure, a confirmation display area 26 for emotion determination image data is provided on the screen of the display unit 6, and each of one or several emotion determination image data taken retrospectively. An icon indicating the emotion determination result is displayed. For example, in the illustrated example, an expressionless icon 27, a crying face icon 28, and a smiling face icon 29 are displayed in order from the top. The user only has to select the icon of the intended emotion. For example, in this figure, the smile icon 29 where the cursor 30 is located can be selected and designated as the intended icon.

なお、この例では、感情判定用画像データを数回の撮影で取得するとしているが、つまり、感情判定用画像データを、同一の被写体を数回にわたって撮影した複数の静止画像データとしているが、これに限らず、たとえば、スルー画像としてもよい。スルー画像の取得中に表情を変えることにより、前記の無表情アイコン27や泣き顔アイコン28、笑顔アイコン29などを表示することができ、そのいずれかを任意に選択することができる。   In this example, it is assumed that the image data for emotion determination is acquired by shooting several times, that is, the image data for emotion determination is a plurality of still image data obtained by shooting the same subject several times. For example, a through image may be used. By changing the facial expression during the acquisition of the through image, the expressionless icon 27, the crying face icon 28, the smile icon 29, etc. can be displayed, and any of them can be selected arbitrarily.

以上の説明では、顔の表情から判定された感情マーク(たとえば、顔文字や絵文字)を挿入しているが、これに限らず、たとえば、予め顔の表情に対応したテキストデータを辞書登録しておき、必要の都度、その辞書からテキストデータを読み出してメールに挿入するようにしてもよい。   In the above description, emotion marks (for example, emoticons and pictograms) determined from facial expressions are inserted. However, the present invention is not limited to this. For example, text data corresponding to facial expressions is registered in a dictionary in advance. Alternatively, text data may be read from the dictionary and inserted into the mail whenever necessary.

図7は、辞書登録処理のフローを示す図である。このフローでは、まず、登録対象となるテキストデータ(単語や短文等)を入力し(ステップS31)、次いで、撮像部4を用いて顔を継続撮影(スルー画像撮影)し、そのスルー画像データを取得する(ステップS32)。そして、感情判定部13を用いて、そのスルー画像データ内の顔から感情を判定し(ステップS33)、その判定結果を表示部6に表示してユーザの登録指示の有無を判定する(ステップS34)。登録指示がなければ(ステップS35のNO)、再びステップS32に戻り、登録指示があれば(ステップS35のYES)、その登録指示のタイミングで判定されている感情の情報(コード)と、ステップS31で入力されたテキストデータとを関連付けしてPROM14bまたは記憶部9内の辞書データテーブルに登録(ステップS36)した後、フローを終了する。なお、ユーザによる「登録指示」は、操作部5のキー操作によって行われることはもちろんのこと、それ以外にも、たとえば、撮像部4に向かって所定の時間、表情を変えずにいた場合は「登録指示」、途中で表情を変えた場合は「取り消し指示」としてもよい。このようにすると、ユーザによる確定または取り消しの操作が不要になるので好ましい。   FIG. 7 is a diagram showing a flow of dictionary registration processing. In this flow, first, text data (words, short sentences, etc.) to be registered is input (step S31), and then the face is continuously photographed (through image photographing) using the imaging unit 4, and the through image data is obtained. Obtain (step S32). Then, the emotion determination unit 13 is used to determine the emotion from the face in the through image data (step S33), and the determination result is displayed on the display unit 6 to determine the presence / absence of the user's registration instruction (step S34). ). If there is no registration instruction (NO in step S35), the process returns to step S32 again. If there is a registration instruction (YES in step S35), the emotion information (code) determined at the timing of the registration instruction and step S31 After associating with the text data input in step (b) and registering it in the dictionary data table in the PROM 14b or the storage unit 9 (step S36), the flow ends. It should be noted that the “registration instruction” by the user is not only performed by the key operation of the operation unit 5, but other than that, for example, when the facial expression is not changed for a predetermined time toward the imaging unit 4 “Registration instruction”, or “cancellation instruction” when the facial expression is changed during the process. This is preferable because a confirmation or cancellation operation by the user is unnecessary.

図8は、辞書データテーブルの概念図である。この図において、辞書データテーブル31は、感情フィールド31aと、テキストデータフィールド31bとを有する。感情フィールド31aには、感情(笑、泣、怒、無表情・・・・等)の情報が格納され、テキストデータフィールド31bには、それらの感情ごとのテキストデータが格納される。なお、図示の例では、感情フィールド31aに、笑い顔を示す「笑」、泣き顔を示す「泣」、怒った顔を示す「怒」、無表情を示す「無」が格納されているが、これは図示の便宜である。実際には、それぞれの感情に対応する識別情報(コード)が格納される。   FIG. 8 is a conceptual diagram of the dictionary data table. In this figure, the dictionary data table 31 has an emotion field 31a and a text data field 31b. The emotion field 31a stores information on emotions (laugh, cry, anger, expressionless, etc.), and the text data field 31b stores text data for each emotion. In the illustrated example, the emotion field 31a stores “laugh” indicating a laughing face, “crying” indicating a crying face, “angry” indicating an angry face, and “nothing” indicating no expression. This is for convenience of illustration. Actually, identification information (code) corresponding to each emotion is stored.

図9は、辞書データテーブル利用のフローを示す図であり、図3のフローのメール件名入力処理(ステップS1、ステップS2)やメール本文入力処理(ステップS3、ステップS4)に置き換わるものである。   FIG. 9 is a diagram showing a flow of using the dictionary data table, which replaces the mail subject input processing (steps S1 and S2) and the mail text input processing (steps S3 and S4) in the flow of FIG.

このフローでは、まず、テキストデータが入力されたか否かを判定し(ステップS41)、入力されていれば、そのテキストデータを現在のカーソル位置に挿入する(ステップS42)。次いで、スルー画像データの取得を判定し(ステップS43)、取得していなければ、図3のステップS5に進み、取得していれば、そのスルー画像データ内の顔から感情の情報(コード)を判定する(ステップS44)。   In this flow, first, it is determined whether or not text data has been input (step S41). If it has been input, the text data is inserted at the current cursor position (step S42). Next, it is determined whether to acquire through image data (step S43). If not acquired, the process proceeds to step S5 in FIG. 3. If acquired, emotion information (code) is obtained from the face in the through image data. Determination is made (step S44).

そして、図8の辞書データテーブル31を参照し、ステップS44で判定した感情の情報(コード)と関連づけて登録されているテキストデータを読み出して、そのテキストデータを現在のカーソル位置に「仮」挿入する(ステップS45)。   Then, with reference to the dictionary data table 31 of FIG. 8, the text data registered in association with the emotion information (code) determined in step S44 is read, and the text data is “temporarily” inserted at the current cursor position. (Step S45).

次に、ユーザによる確定操作または取り消し操作を判定し(ステップS46)、取り消しであれば、図3のステップS5に進み、確定であれば、仮挿入されているテキストデータを確定挿入(ステップS47)してから、図3のステップS5に進む。なお、ユーザによる「確定」または「取り消し」の操作は、操作部5のキー操作によって行われることはもちろんのこと、それ以外にも、たとえば、撮像部4に向かって所定の時間、表情を変えずにいた場合は「確定」、途中で表情を変えた場合は「取り消し」としてもよい。   Next, a confirmation operation or cancellation operation by the user is determined (step S46), and if cancelled, the process proceeds to step S5 in FIG. 3, and if confirmed, the temporarily inserted text data is confirmed and inserted (step S47). Then, the process proceeds to step S5 in FIG. It should be noted that the “confirm” or “cancel” operation by the user is not only performed by the key operation of the operation unit 5, but also, for example, the facial expression is changed toward the imaging unit 4 for a predetermined time. It may be “confirmed” if the user has not been selected, or “cancel” if the expression is changed in the middle.

このフローによれば、予め感情の情報(コード)とテキストデータとを関連付けして辞書データテーブル31に登録しておき、その後、必要に応じて顔を撮影するだけで、その画像データから判定された感情の情報(コード)に関連するテキストデータを辞書データテーブル31から取り出して、メール件名またはメール本文の指定位置に自動挿入することができる。このため、その時々の感情に対応したテキストデータを速やかにメールに挿入することができ、メール作成の効率をアップすることができる。   According to this flow, emotion information (code) and text data are associated with each other and registered in the dictionary data table 31. After that, it is determined from the image data only by photographing a face as necessary. The text data related to the emotion information (code) can be extracted from the dictionary data table 31 and automatically inserted at the designated position of the mail subject or the mail text. For this reason, text data corresponding to the emotion at that time can be quickly inserted into the mail, and the efficiency of mail creation can be improved.

なお、以上の説明では、感情の特定を画像データに含まれる顔から行うとしたが、実際上は、顔の表情には個人差があるので、不特定のヒトに適用するためには感情特定の信頼性の点で何らかの工夫が必要である。以下は、その工夫である。   In the above explanation, emotions are specified from the face included in the image data. However, in reality, there are individual differences in facial expressions, so emotions must be specified for application to unspecified humans. Some kind of ingenuity is necessary in terms of reliability. The following are the ideas.

図10は、判断用データ登録処理のフロー及びその判断用データを用いた感情特定処理のフローを示す図である。(a)に示すように、判断用データ登録処理では、まず、登録対象となる個人名を入力し(ステップS51)、登録対象となる感情を表す情報を入力する(ステップS52)。次いで、撮像を行って画像データを取得し(ステップS53)、撮像された画像データまたはその画像データから抽出された特徴データ(画像内の特徴点のデータ)を、ステップS51で入力された個人名と、ステップS52で入力された感情(を表す情報)とに関連付けして判断用データテーブル(後述)に登録(ステップS54)した後、フローを終了する。   FIG. 10 is a diagram showing a flow of determination data registration processing and a flow of emotion identification processing using the determination data. As shown in (a), in the judgment data registration process, first, a personal name to be registered is input (step S51), and information representing an emotion to be registered is input (step S52). Next, imaging is performed to acquire image data (step S53), and the captured image data or feature data extracted from the image data (feature point data in the image) is input to the personal name in step S51. Are registered in a data table for determination (described later) in association with the emotion (information representing) input in step S52 (step S54), and then the flow ends.

次に、(b)に示すように、感情特定処理では、撮影画像内に検出される顔を、判断用データテーブル(後述)の登録情報と照合し、最も合致度の高い登録データを特定する(ステップS61)。次いで、特定された登録データに対応する個人名及び感情を特定(ステップS62)した後、フローを終了する。   Next, as shown in (b), in the emotion identification process, the face detected in the captured image is collated with registration information in a determination data table (described later) to identify registration data having the highest degree of matching. (Step S61). Next, after identifying the personal name and emotion corresponding to the identified registration data (step S62), the flow is terminated.

図11は、判断用データテーブルの概念図である。判断用データテーブル32は、ユーザフィールド32aと、感情フィールド32bと、画像データまたは特徴データフィールド32cとを含む。ユーザフィールド32aには、ステップS51で入力された個人名が格納され、感情フィールド32bには、ステップS52で入力された感情を表す情報が格納され、画像データまたは特徴データフィールド32cには、画像データまたはその画像データから抽出された特徴データが格納される。   FIG. 11 is a conceptual diagram of the determination data table. The determination data table 32 includes a user field 32a, an emotion field 32b, and an image data or feature data field 32c. The user field 32a stores the personal name input in step S51, the emotion field 32b stores information representing the emotion input in step S52, and the image data or feature data field 32c stores image data. Alternatively, feature data extracted from the image data is stored.

この判断用データ登録処理のフロー及びその判断用データを用いた感情特定処理によれば、予め個人ごとの感情(を表す情報)と、その個人の画像データまたは特徴データとを判断用データテーブル32に登録しておき、実際に感情を判定する際には、判断用データテーブル32の登録情報との照合によって各個人の感情を特定するので、個人差に影響されることなく、不特定のヒトに適用する場合の感情特定の信頼性向上を図ることができる。   According to the flow of the determination data registration process and the emotion identification process using the determination data, the determination data table 32 stores emotions (information representing each person) in advance and image data or feature data of the individual. When the emotion is actually determined, the emotion of each individual is specified by collating with the registered information in the determination data table 32, so that it is not affected by individual differences and is not specified by an unspecified human. It is possible to improve the reliability of emotion identification when applied to.

なお、以上の説明では、カメラ付携帯電話機で電子メールを作成する場合を例にしたが、これに限定されることはなく、たとえば、デジタルカメラで撮影した画像データに、ユーザが任意に入力した文字列からなる名称を付加する場合などに適用してもよい。また、撮像部等のカメラ機能は存在することが望ましいが、必要に応じてパーソナルコンピュータ等の外部機器から画像データを取り込むこともできるので、必ずしも必須の要素ではない。要は、画像データを自己の撮像部または外部機器から取得する機能と、電子データを編集する機能とを備えた電子機器であればよい。   In the above description, e-mail is created with a camera-equipped mobile phone as an example. However, the present invention is not limited to this. For example, a user arbitrarily inputs image data taken with a digital camera. You may apply when adding the name which consists of character strings. In addition, it is desirable that a camera function such as an imaging unit is present, but image data can be taken in from an external device such as a personal computer as necessary. In short, any electronic device having a function of acquiring image data from its own imaging unit or an external device and a function of editing electronic data may be used.

カメラ付き携帯電話機のブロック図である。It is a block diagram of a mobile phone with a camera. 感情判定部13の概念構成図である。3 is a conceptual configuration diagram of an emotion determination unit 13. FIG. メール作成及び送信処理のフローを示す図である。It is a figure which shows the flow of a mail preparation and transmission process. 感情マークの自動合成モードと感情文字の自動挿入モードとを示す概念図である。It is a conceptual diagram which shows the automatic synthetic | combination mode of an emotion mark, and the automatic insertion mode of an emotion character. 第一の変形例を示す図である。It is a figure which shows a 1st modification. 所望の感情判定結果の選択指示概念図である。It is a selection instruction conceptual diagram of a desired emotion determination result. 辞書登録処理のフローを示す図である。It is a figure which shows the flow of a dictionary registration process. 辞書データテーブルの概念図である。It is a conceptual diagram of a dictionary data table. 辞書データテーブル利用のフローを示す図である。It is a figure which shows the flow of dictionary data table utilization. 判断用データ登録処理のフロー及びその判断用データを用いた感情特定処理のフローを示す図である。It is a figure which shows the flow of the judgment data registration process, and the flow of the emotion specific process using the data for judgment. 判断用データテーブルの概念図である。It is a conceptual diagram of the data table for judgment.

符号の説明Explanation of symbols

1 カメラ付き携帯電話機(電子データ編集装置)
3 通信部(送信手段)
4 撮像部(撮像手段)
14 制御部(特定手段、挿入手段、読み出し手段、画像添付手段、指定手段)
15 顔抽出部(抽出手段)
17 表情識別部(判定手段)
19 選択部(選択手段)
31 辞書データテーブル(記憶手段)
32 判断用データテーブル(登録手段)
1 Mobile phone with camera (electronic data editing device)
3 Communication unit (transmission means)
4 Imaging unit (imaging means)
14 Control unit (identifying means, inserting means, reading means, image attaching means, specifying means)
15 Face extraction unit (extraction means)
17 Facial expression identification unit (determination means)
19 Selection part (selection means)
31 Dictionary data table (storage means)
32 Judgment data table (registration means)

Claims (8)

被写体を撮像して画像データを取得する撮像手段と、
画像データ内の顔を検出し、この検出された顔の表情を識別して、複数のグループに分類される表情種別のいずれに該当するかを判定する判定手段と、
ユーザの操作に応じて任意のテキストデータを入力する手動入力手段と、
前記判定手段により判定可能な複数の表情種別の各々に対して、前記入力手段により予め入力されたテキストデータを対応付けて記憶する第1の記憶手段と、
テキストデータの入力が必要なときに前記撮像手段により画像データが取得されると、この取得された画像データを対象として前記判定手段による表情種別の判定を行い、この判定された表情種別に対応して前記第1の記憶手段に記憶されているテキストデータを自動的に入力する自動入力手段と、
前記撮像手段による新たな画像データの取得と、前記手動入力手段による任意の単語または短文を含むテキストデータの入力を行い、この取得された新たな画像データを対象として前記判定手段により判定された表情種別と、前記入力された任意の単語または短文を含むテキストデータとを対応付けて前記第1の記憶手段に追加登録する第1の登録手段と、
を備えたことを特徴とする電子データ編集装置。
Imaging means for capturing an image of a subject and acquiring image data;
A determination unit that detects a face in the image data, identifies the expression of the detected face, and determines which of the expression types classified into a plurality of groups;
A manual input means for inputting arbitrary text data in accordance with a user operation;
First storage means for storing text data input in advance by the input means in association with each of a plurality of facial expression types that can be determined by the determination means;
When image data is acquired by the imaging unit when text data needs to be input, the determination unit determines the facial expression type for the acquired image data, and corresponds to the determined facial expression type. Automatic input means for automatically inputting text data stored in the first storage means,
The acquisition of new image data by the imaging means and the input of text data including an arbitrary word or short sentence by the manual input means, and the facial expression determined by the determination means for the acquired new image data First registration means for additionally registering the type and text data including the input arbitrary word or short sentence in association with the first storage means;
An electronic data editing apparatus comprising:
前記第1の記憶手段は、前記判定手段により判定可能な複数の表情種別の各々に対して、顔文字や絵文字を含む感情マークであって、各表情種別に対応した感情を表す感情マークを対応付けて記憶し、The first storage means corresponds to an emotion mark including an emoticon or a pictograph for each of a plurality of expression types that can be determined by the determination means, and an emotion mark representing an emotion corresponding to each expression type Remember,
前記第1の登録手段は、各表情種別に対応した感情とは無関係に、任意の単語または短文を含むテキストデータを前記第1の記憶手段に追加登録することを可能にしたことを特徴とする請求項1に記載の電子データ編集装置。The first registration means is capable of additionally registering text data including an arbitrary word or short sentence in the first storage means regardless of the emotion corresponding to each facial expression type. The electronic data editing apparatus according to claim 1.
複数の表情種別の各々に対して、顔の画像データまたは顔の特徴データを対応付けて記憶する第2の記憶手段を更に備え、
前記判定手段は、画像データ内より検出された顔の画像データまたは顔の特徴データを、前記第2の記憶手段に記憶されている顔の画像データまたは顔の特徴データと比較し、最も合致度の高い顔の画像データまたは顔の特徴データに対応して記憶されている表情種別を判定結果とすることを特徴とする請求項2に記載の電子データ編集装置。
A second storage means for storing facial image data or facial feature data in association with each of the plurality of facial expression types;
The determination unit compares the face image data or the facial feature data detected from the image data with the facial image data or the facial feature data stored in the second storage unit, and determines the degree of match. 3. The electronic data editing apparatus according to claim 2, wherein a facial expression type stored in correspondence with image data or facial feature data having a high face is used as a determination result.
前記表情種別を表す情報を入力する表情種別入力手段と、
前記撮像手段による画像データの取得と、前記表情種別入力手段による表情種別を表す情報の入力を行い、この取得された画像データ内より検出された顔の画像データまたは顔の特徴データと、前記入力された表情種別を表す情報とを対応付けて前記第2の記憶手段に追加登録する第2の登録手段と、
を更に備えたことを特徴とする請求項3に記載の電子データ編集装置。
An expression type input means for inputting information representing the expression type;
Acquisition of image data by the imaging unit, input of information representing an expression type by the expression type input unit, and detection of facial image data or facial feature data detected in the acquired image data, and the input Second registration means for associating with the information indicating the performed facial expression type, and additionally registering the information in the second storage means,
The electronic data editing apparatus according to claim 3, further comprising:
前記第2の記憶手段は、複数の個人の各々に対応させて、前記表情種別と顔の画像データまたは顔の特徴データとを対応付けて記憶し、
前記第2の登録手段は、前記撮像手段による画像データの取得と、前記表情種別入力手段による表情種別を表す情報の入力に加え、個人を識別する情報の入力を行い、この個人を識別する情報と、前記顔の画像データまたは顔の特徴データと、前記表情種別を表す情報とを対応付けて前記第2の記憶手段に追加登録し、
前記判定手段は、前記第2の記憶手段の記憶情報に基づいて、個人毎に顔の表情を識別することを特徴とする請求項4に記載の電子データ編集装置。
The second storage means stores the expression type and facial image data or facial feature data in association with each other in association with each of a plurality of individuals.
The second registration means inputs the information for identifying the individual in addition to the acquisition of the image data by the imaging means and the input of the information indicating the expression type by the expression type input means, and the information for identifying the individual And additionally registering the face image data or face feature data and the information indicating the expression type in association with the second storage means,
5. The electronic data editing apparatus according to claim 4, wherein the determination unit identifies a facial expression for each individual based on information stored in the second storage unit.
前記自動入力手段は、前記撮像手段による画像データの取得に応じて前記第1の記憶手段から読み出されたテキストデータを仮入力し、確定操作が行われるまでの間、前記撮像手段による新たな画像データの取得と、新たに取得された画像データに対応するテキストデータの読み出しを繰り返し実行することを特徴とする請求項5に記載の電子データ編集装置。   The automatic input means provisionally inputs the text data read from the first storage means in response to the acquisition of the image data by the imaging means, and a new operation by the imaging means is performed until a confirmation operation is performed. 6. The electronic data editing apparatus according to claim 5, wherein acquisition of image data and reading of text data corresponding to newly acquired image data are repeatedly executed. 被写体を撮像して画像データを取得する撮像手段と、ユーザの操作に応じて任意のテキストデータを入力する手動入力手段と、を備えた電子データ編集装置の制御方法であって、
前記電子データ編集装置のコンピュータに、
画像データ内の顔を検出し、この検出された顔の表情を識別して、複数のグループに分類される表情種別のいずれに該当するかを判定する判定処理と、
前記判定処理により判定可能な複数の表情種別の各々に対して、前記入力手段により予め入力されたテキストデータを対応付けて記憶手段に記憶する記憶処理と、
テキストデータの入力が必要なときに前記撮像手段により画像データが取得されると、この取得された画像データを対象として前記判定処理による表情種別の判定を行い、この判定された表情種別に対応して前記記憶手段に記憶されたテキストデータを自動的に入力する自動入力処理と、
前記撮像手段による画像データの取得と、前記手動入力手段による任意の単語または短文を含むテキストデータの入力を行い、この取得された画像データを対象として前記判定処理により判定された表情種別と、前記入力された任意の単語または短文を含むテキストデータとを対応付けて前記記憶手段に追加登録する登録処理と、
を実行させることを特徴とする電子データ編集方法。
An electronic data editing apparatus control method comprising: an imaging unit that images a subject to acquire image data; and a manual input unit that inputs arbitrary text data in accordance with a user operation,
In the computer of the electronic data editing device,
A determination process for detecting a face in the image data, identifying an expression of the detected face, and determining which of the expression types classified into a plurality of groups;
A storage process for storing in the storage means text data input in advance by the input means for each of a plurality of facial expression types that can be determined by the determination process;
When image data is acquired by the imaging means when text data needs to be input, the facial expression type is determined by the determination process for the acquired image data, and the facial expression type corresponding to the determined facial expression type is determined. Automatic input processing for automatically inputting text data stored in the storage means ;
Acquisition of image data by the imaging unit, input of text data including an arbitrary word or short sentence by the manual input unit, facial expression type determined by the determination process for the acquired image data, and A registration process for additionally registering in the storage means in association with text data including any input word or short sentence;
An electronic data editing method characterized in that
被写体を撮像して画像データを取得する撮像手段を備える電子データ編集装置のコンピュータを、
画像データ内の顔を検出し、この検出された顔の表情を識別して、複数のグループに分類される表情種別のいずれに該当するかを判定する判定手段と、
ユーザの操作に応じて任意のテキストデータを入力する手動入力手段と、
前記判定手段により判定可能な複数の表情種別の各々に対して、前記入力手段により予め入力されたテキストデータを対応付けて記憶する第1の記憶手段と、
テキストデータの入力が必要なときに前記撮像手段により画像データが取得されると、この取得された画像データを対象として前記判定手段による表情種別の判定を行い、この判定された表情種別に対応して前記第1の記憶手段に記憶されているテキストデータを自動的に入力する自動入力手段と、
前記撮像手段による画像データの取得と、前記手動入力手段による任意の単語または短文を含むテキストデータの入力を行い、この取得された画像データを対象として前記判定手段により判定された表情種別と、前記入力された任意の単語または短文を含むテキストデータとを対応付けて前記第1の記憶手段に追加登録する第1の登録手段
として機能させることを特徴とするプログラム。
A computer of an electronic data editing apparatus comprising an imaging means for capturing an image of a subject and acquiring image data ,
A determination unit that detects a face in the image data, identifies the expression of the detected face, and determines which of the expression types classified into a plurality of groups;
A manual input means for inputting arbitrary text data in accordance with a user operation;
First storage means for storing text data input in advance by the input means in association with each of a plurality of facial expression types that can be determined by the determination means;
When image data is acquired by the imaging unit when text data needs to be input, the determination unit determines the facial expression type for the acquired image data, and corresponds to the determined facial expression type. Automatic input means for automatically inputting text data stored in the first storage means ,
The acquisition of image data by the imaging means, the input of text data including any word or short sentence by the manual input means, the facial expression type determined by the determination means for the acquired image data, and A program that functions as a first registration unit that associates an input arbitrary word or text data including a short sentence with each other and additionally registers the text data in the first storage unit .
JP2008103107A 2008-04-11 2008-04-11 Electronic data editing apparatus, electronic data editing method and program Expired - Fee Related JP5120777B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008103107A JP5120777B2 (en) 2008-04-11 2008-04-11 Electronic data editing apparatus, electronic data editing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008103107A JP5120777B2 (en) 2008-04-11 2008-04-11 Electronic data editing apparatus, electronic data editing method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012135540A Division JP5548964B2 (en) 2012-06-15 2012-06-15 Electronic data editing apparatus, electronic data editing method and program

Publications (3)

Publication Number Publication Date
JP2009253931A JP2009253931A (en) 2009-10-29
JP2009253931A5 JP2009253931A5 (en) 2011-03-03
JP5120777B2 true JP5120777B2 (en) 2013-01-16

Family

ID=41314105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008103107A Expired - Fee Related JP5120777B2 (en) 2008-04-11 2008-04-11 Electronic data editing apparatus, electronic data editing method and program

Country Status (1)

Country Link
JP (1) JP5120777B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4660611B2 (en) * 2009-06-30 2011-03-30 株式会社東芝 Image processing apparatus and image processing method
JP5344623B2 (en) * 2010-01-06 2013-11-20 Necシステムテクノロジー株式会社 E-mail system, e-mail receiving apparatus and display method
KR101659022B1 (en) * 2010-03-02 2016-09-23 엘지전자 주식회사 Content control apparatus and method thereof
JP2011227560A (en) * 2010-04-15 2011-11-10 Nec Corp Input support apparatus, input support method, and program
JP2012169777A (en) * 2011-02-10 2012-09-06 Sony Corp Information processor, information processing method, and program
JP5825040B2 (en) * 2011-10-25 2015-12-02 富士通株式会社 Communication terminal device and computer program
EP2800351A4 (en) * 2011-11-24 2016-06-01 Ntt Docomo Inc Expression output device and expression output method
JP5845988B2 (en) * 2012-03-16 2016-01-20 大日本印刷株式会社 Image processing system, image processing method, server, and program
JP5790568B2 (en) * 2012-03-28 2015-10-07 株式会社デンソー Message decoration input system
JP5977697B2 (en) * 2013-03-14 2016-08-24 シャープ株式会社 Electronic device and method for controlling electronic device
JP2014167829A (en) * 2014-06-06 2014-09-11 Nec Corp Input support apparatus, input support method, and program
JP2015165407A (en) * 2015-03-25 2015-09-17 株式会社リコー network system
EP3329390A4 (en) * 2015-07-30 2019-04-03 Intel Corporation Emotion augmented avatar animation
CN107193571A (en) * 2017-05-31 2017-09-22 广东欧珀移动通信有限公司 Method, mobile terminal and storage medium that interface is pushed
WO2022181287A1 (en) * 2021-02-25 2022-09-01 日本電気株式会社 Image storage device, method, and non-transitory computer readable medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09138767A (en) * 1995-11-14 1997-05-27 Fujitsu Ten Ltd Communication equipment for feeling expression
JP4643054B2 (en) * 2001-04-19 2011-03-02 雅信 鯨田 Device for inputting text consisting of letters and emoticons
JP2007199908A (en) * 2006-01-25 2007-08-09 Fujifilm Corp Emoticon input apparatus

Also Published As

Publication number Publication date
JP2009253931A (en) 2009-10-29

Similar Documents

Publication Publication Date Title
JP5120777B2 (en) Electronic data editing apparatus, electronic data editing method and program
KR101010081B1 (en) Media identification
JP4552632B2 (en) Portable device
JP4659088B2 (en) Mobile device with camera
JP5522976B2 (en) How to use image information on mobile devices
CN105302315A (en) Image processing method and device
WO2012050672A2 (en) Image identification and sharing on mobile devices
JP2006165822A (en) Electronic camera and program
JP2005267146A (en) Method and device for creating email by means of image recognition function
CN107145859A (en) E-book conversion process method, device and computer-readable recording medium
JP2016189158A (en) Image processing apparatus, image processing method, program, and recording medium
KR20060050746A (en) Method for processing document image captured by camera
US11729324B2 (en) Imaging apparatus
JP4998202B2 (en) Mobile communication terminal
JP2015104078A (en) Imaging apparatus, imaging system, server, imaging method and imaging program
JP6794819B2 (en) Image print system
JP5548964B2 (en) Electronic data editing apparatus, electronic data editing method and program
JP2001318898A (en) Device and method for exchanging name card, and recording medium
JP2008021324A (en) Image processor and program
JP2010010816A (en) Composite image photographic system and composite image photographing method
CN104699668B (en) Determine the method and device of Words similarity
JP2007096816A (en) Image composing apparatus, image composing program, and image composing program storing medium
JP2005339000A (en) Image recognition device and program
JP2004192118A (en) Electronic equipment
KR101364844B1 (en) Mobile communication terminal with video call function and method of controlling the same

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121001

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5120777

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121014

LAPS Cancellation because of no payment of annual fees