JP2009141516A - Image display device, camera, image display method, program, image display system - Google Patents

Image display device, camera, image display method, program, image display system Download PDF

Info

Publication number
JP2009141516A
JP2009141516A JP2007313875A JP2007313875A JP2009141516A JP 2009141516 A JP2009141516 A JP 2009141516A JP 2007313875 A JP2007313875 A JP 2007313875A JP 2007313875 A JP2007313875 A JP 2007313875A JP 2009141516 A JP2009141516 A JP 2009141516A
Authority
JP
Japan
Prior art keywords
image
text
emotion
sentence
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007313875A
Other languages
Japanese (ja)
Inventor
Atsushi Maruyama
淳 丸山
Tatsuyuki Kamimura
達之 上村
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2007313875A priority Critical patent/JP2009141516A/en
Priority to CN2008101795481A priority patent/CN101453573B/en
Publication of JP2009141516A publication Critical patent/JP2009141516A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image display device which selects an image according to an emotion of a text and displays an image obtained by combining the text and the selected image on a display part. <P>SOLUTION: The image display device includes: an emotion determination part 27 which determines the emotion of the text; an expression determination part 25 which determines an expression of an object of the image; an image selection part 28 which selects an image in which expression of an object determined by the expression determination part corresponds to the emotion of the text determined by the emotion determination part as an image corresponding to the text; a text synthesis part 30 which combines the text and the image selected by the image selection part to create a text image; and a display part 22 which displays the text image created by the text synthesis part. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

この発明は、画像表示装置,カメラ,画像表示方法,プログラム,画像表示システム、詳しくはテキストと画像とを効果的に組み合わせて作成される合成画像による新たな鑑賞形態を提供する画像表示装置と、この画像表示装置を持つカメラと、その画像表示方法と、この画像表示方法をコンピューターに実行させるプログラムと、その画像表示システムに関するものである。   The present invention relates to an image display device, a camera, an image display method, a program, an image display system, and more specifically, an image display device that provides a new appreciation mode using a composite image created by effectively combining text and an image, The present invention relates to a camera having the image display device, an image display method thereof, a program for causing a computer to execute the image display method, and an image display system thereof.

近年、画像をデジタルデータ等の電子データとして取り扱うデジタルカメラや画像表示装置等が一般に普及しつつある。これに伴って、個人レベルにおいても、携帯電話等の通信機器やインターネット及び小型コンピュータ等を利用することにより、画像を不特定多数に対して公開する等といった行為を容易に実現し得る環境が存在するようになっている。このような環境下にあって、画像データに基づく画像は、多数の人が楽しむための素材として、また重要なコンテンツ(内容物,展示物等の情報)等として発展しつつある。   In recent years, digital cameras and image display devices that handle images as electronic data such as digital data are becoming popular. Along with this, even at the individual level, there is an environment where it is possible to easily realize an action such as releasing an image to an unspecified number of people by using a communication device such as a mobile phone, the Internet, and a small computer. It is supposed to be. Under such circumstances, an image based on image data is developing as a material for many people to enjoy and as important content (information on contents, exhibits, etc.).

画像データに基づく画像の鑑賞方法としては、例えば画像を所定の順番で所定の時間間隔で自動的に切り換え表示するいわゆるスライドショー形式の表示方法はよく知られている。   As a method of appreciating images based on image data, for example, a so-called slide show type display method for automatically switching and displaying images at a predetermined time interval in a predetermined order is well known.

また、単に画像を表示するだけでは単調になることから、例えば画像表示の際に音楽を流し、その音楽に合わせて表示に変化を持たせたり、表示画像に所定のテキスト(文章)等を重ねて表示させる等、画像を用いて、その表示を楽しむために各種の形態の表示方法が考えられており、種々の提案がなされている。   In addition, since displaying an image is monotonous, for example, music is played during image display, and the display is changed according to the music, or predetermined text (sentence) is overlaid on the display image. In order to enjoy the display using an image such as displaying the image, various display methods have been considered, and various proposals have been made.

例えば、特開2006−339951号公報によって開示されている装置は、歌詞を重畳した形態の画像を作成する写真撮影装置であって、歌詞エリアが設けられたテンプレート画像と、所望の歌詞フレーズを選択した後、撮影をおこなうと、予め選択した歌詞フレーズが所定の歌詞エリアに重畳された形態の画像を出力するというものである。   For example, the device disclosed in Japanese Patent Application Laid-Open No. 2006-339951 is a photography device that creates an image in a form in which lyrics are superimposed, and selects a template image provided with a lyrics area and a desired lyrics phrase Then, when shooting is performed, an image in a form in which a previously selected lyrics phrase is superimposed on a predetermined lyrics area is output.

また、特開2007−148516号公報によって開示されている装置は、使用者が任意に入力した文章に含まれるキーワードに適切な画像を自動的に選択する画像処理装置であって、撮影日時情報や被写体に応じたキーワード等の情報を画像データに関連付けて格納しておくと共に、そのキーワードの重みをも格納しておき、使用者が任意に入力した文章に含まれるキーワードに対応する画像を、キーワードの重みの合計値の多い画像の中から選択して表示するようにしている。この選択方法おいて、具体的には例えばキーワードが「夜」であるとした場合、「夜景」の画像が選択されるというものである。
特開2006−339951号公報 特開2007−148516号公報
An apparatus disclosed in Japanese Patent Application Laid-Open No. 2007-148516 is an image processing apparatus that automatically selects an appropriate image for a keyword included in a sentence arbitrarily input by a user, Information such as a keyword corresponding to the subject is stored in association with the image data, and the weight of the keyword is also stored, and an image corresponding to the keyword included in the sentence arbitrarily input by the user is stored as the keyword. An image with a large total value of weights is selected and displayed. Specifically, in this selection method, for example, when the keyword is “night”, an image of “night view” is selected.
JP 2006-339951 A JP 2007-148516 A

ところが、上記特開2006−339951号公報によって開示されている手段は、例えばゲームセンター等に設置されるような大規模な装置システムに用いることを想定したものであって、合成する画像はその場で撮影するというものであり、個人が所有する小型デジタルカメラを用いて取得した画像を気軽に利用するというものではない。   However, the means disclosed in Japanese Patent Application Laid-Open No. 2006-339951 is assumed to be used for a large-scale apparatus system installed in, for example, a game center. It is not intended to use images acquired using a small digital camera owned by an individual.

一方、上記特開2007−148516号公報によって開示されている手段では、例えば「夜」というキーワードがある場合には、これに対応する決まった画像、つまり「夜景」の画像が常に選択されるのみである。このことは、撮影日時情報や撮影条件情報等あるいは被写体情報等、その画像データに付随する各種の情報を参照して、選択されたテキストに応じた画像を選択するという方法である。したがって、単にキーワードに基いて画像検索をおこなう場合と同様のことをしているのみであり、従来の鑑賞方法の延長であると言える。   On the other hand, in the means disclosed in the above Japanese Patent Application Laid-Open No. 2007-148516, for example, when there is a keyword “night”, a fixed image corresponding to this keyword, that is, an image of “night view” is always selected. It is. This is a method of selecting an image according to the selected text with reference to various information accompanying the image data such as shooting date / time information, shooting condition information, or subject information. Therefore, it is merely the same as the case where the image search is performed based on the keyword, and can be said to be an extension of the conventional viewing method.

今後は、使用者を充分に引き付けるような魅力があり、かつ使用者に対して意外性をも感じさせることができるような形態で、テキストと画像とを組み合せた合成画像を作成し表示させ得る工夫によって、これまでにない新しい鑑賞方法の提案が望まれる。   In the future, it is possible to create and display a composite image that combines text and images in a form that is attractive enough to attract the user and that makes the user feel even surprising. It is hoped that a new appreciation method will be proposed.

本発明は、上述した点に鑑みてなされたものであって、その目的とするところは、テキストの情感に合わせてストーリー化した画像の組合せの選択をおこなって、これによって取得された合成画像を表示部に表示させるように構成した画像表示装置と、この画像表示装置を持つカメラと、その画像表示方法及びこの画像表示方法を実現するプログラム、画像表示システムを提供することである。   The present invention has been made in view of the above-described points, and an object of the present invention is to select a combination of images made into a story according to the emotion of the text, and to obtain a composite image obtained thereby. An image display device configured to be displayed on a display unit, a camera having the image display device, an image display method thereof, a program for realizing the image display method, and an image display system are provided.

上記目的を達成するために、本発明による画像表示装置は、テキストの情感を判定する情感判定部と、画像の被写体の表情を判定する表情判定部と、上記テキストに対応する画像として、上記情感判定部により判定される上記テキストの情感に、上記表情判定部により判定される上記被写体の表情が対応する画像を選択する画像選択部と、上記テキストと上記画像選択部により選択された画像とを合成してテキスト画像を作成するテキスト合成部と、上記テキスト合成部により作成された上記テキスト画像を表示する表示部と、を備えてなることを特徴とする。   In order to achieve the above object, an image display device according to the present invention includes an emotion determination unit that determines an emotion of a text, an expression determination unit that determines an expression of a subject of the image, and the emotion as an image corresponding to the text. An image selection unit that selects an image in which the facial expression of the subject determined by the facial expression determination unit corresponds to the emotion of the text determined by the determination unit, and the text and the image selected by the image selection unit. A text composition unit that composes a text image and a display unit that displays the text image created by the text composition unit.

本発明によるカメラは、被写体像を結像させる撮影レンズと、上記撮影レンズにより結像される被写体像を受光して光電変換処理をおこない電気的な画像信号を出力する撮像素子と、上記撮像素子から出力される画時信号に基いて被写体の顔を検出する顔検出部と、テキストの情感を判定する情感判定部と、画像の被写体の表情を判定する表情判定部と、上記テキストに対応する画像として上記情感判定部により判定される上記テキストの情感に上記表情判定部により判定される上記被写体の表情が対応する画像を選択する画像選択部と、上記テキストと上記画像選択部により選択された画像とを合成してテキスト画像を作成するテキスト合成部と、上記テキスト合成部により作成された上記テキスト画像を表示する表示部とを備えてなる画像表示装置と、を具備し、上記表情判定部は、上記顔検出部によって検出された被写体の顔についての笑顔の度合いに基いて上記被写体の表情を判定することを特徴とする。   The camera according to the present invention includes a photographing lens that forms a subject image, an imaging element that receives the subject image formed by the photographing lens, performs photoelectric conversion processing, and outputs an electrical image signal, and the imaging element Corresponding to the text, a face detection unit that detects the face of the subject based on the image signal output from the image, an emotion determination unit that determines the emotion of the text, a facial expression determination unit that determines the facial expression of the subject of the image An image selection unit that selects an image in which the facial expression of the subject determined by the facial expression determination unit corresponds to the emotion of the text determined by the emotion determination unit as an image, and is selected by the text and the image selection unit An image comprising a text composition unit that creates a text image by synthesizing an image, and a display unit that displays the text image created by the text composition unit Comprising a display device, and the facial expression determination unit may determine the expression of the subject based on the degree of smile of the face of the detected subject by the face detection unit.

本発明による画像表示方法は、テキストを構成する各センテンスの情感の度合いを判定し、上記各センテンスに対応する画像として、各センテンスの情感に撮影された被写体の表情が対応する画像を選択し、上記各センテンスと上記選択された画像とをそれぞれ合成してテキスト合成画像を作成し、上記テキスト合成画像を上記テキストの各センテンスの順番に表示することを特徴とする。   The image display method according to the present invention determines the degree of emotion of each sentence constituting the text, selects an image corresponding to the expression of the subject photographed in the emotion of each sentence as an image corresponding to each sentence, Each sentence and the selected image are respectively combined to create a text composite image, and the text composite image is displayed in the order of each sentence of the text.

本発明によるプログラムは、画像表示方法をコンピュータに実行させるプログラムであって、テキストを構成する各センテンスの情感の度合いを判定するステップと、上記各センテンスに対応する画像として、各センテンスの情感に撮影された被写体の表情が対応する画像を選択するステップと、上記各センテンスと上記選択された画像とをそれぞれ合成してテキスト合成画像を作成するステップと、上記テキスト合成画像を上記テキストの各センテンスの順番に表示するステップと、を有することを特徴とする。   The program according to the present invention is a program that causes a computer to execute an image display method, and includes a step of determining the degree of feeling of each sentence that constitutes text, and an image corresponding to each sentence is photographed in the feeling of each sentence. Selecting an image corresponding to the facial expression of the subject, synthesizing each sentence and the selected image to create a text composite image, and combining the text composite image with each sentence of the text And displaying in order.

本発明による画像表示システムは、画像表示装置と、この画像表示装置との間でネットワークを介して接続されるサーバ装置とからなる画像表示システムにおいて、上記サーバ装置は、文書が格納される文書データベースと、上記文書の各センテンスの情感を数値で表現する情感データが格納された情感データベースと、使用者から送信されたテーマに対応してストーリーを構成できる複数のセンテンスを上記文書データベースから抽出し、かつ抽出したそのセンテンスに対応する情感データを上記情感データベースから抽出するセンテンス抽出部と、上記センテンス抽出部により抽出されたセンテンスと、これに対応する情感データとを使用者に送信する通信部と、を具備し、上記画像表示装置は、上記サーバから送信された上記情感データを含む各センテンスからなるテキストを記録するテキスト記録部と、上記各センテンスの情感を判定する情感判定部と、画像の被写体の表情を判定する表情判定部と、上記各センテンスに対応する画像として、この各センテンスの情感に上記被写体の表情が対応する画像を選択する画像選択部と、上記各センテンスと上記画像選択部により選択された画像とを合成してテキスト画像を作成するテキスト合成部と、上記テキスト合成部により作成された上記テキスト画像を表示する表示部と、を備えてなることを特徴とする。   An image display system according to the present invention is an image display system comprising an image display device and a server device connected to the image display device via a network. The server device is a document database in which documents are stored. And an emotion database storing emotion data expressing the emotion of each sentence of the document numerically, and a plurality of sentences that can compose a story corresponding to the theme transmitted from the user are extracted from the document database, And a sentence extracting unit that extracts emotion data corresponding to the extracted sentence from the emotion database, a sentence extracted by the sentence extracting unit, and a communication unit that transmits emotion data corresponding to the sentence to the user, The image display device includes the emotion data transmitted from the server. As an image corresponding to each sentence, a text recording unit that records text including each sentence, an emotion determination unit that determines the emotion of each sentence, a facial expression determination unit that determines the facial expression of the subject of the image, and An image selection unit that selects an image in which the expression of the subject corresponds to the feeling of each sentence; a text synthesis unit that creates a text image by synthesizing each sentence and the image selected by the image selection unit; And a display unit for displaying the text image created by the text synthesis unit.

本発明によれば、テキストの情感に合わせてストーリー化した画像の組合せの選択をおこなって、これによって取得された合成画像を表示部に表示させるように構成した画像表示装置と、この画像表示装置を持つカメラと、その画像表示方法及びこの画像表示方法を実現するプログラム、画像表示システムを提供することができる。   According to the present invention, an image display device configured to select a combination of images made into a story in accordance with the emotion of a text and display a composite image acquired thereby on the display unit, and the image display device , An image display method thereof, a program for realizing the image display method, and an image display system can be provided.

以下、図示の実施の形態によって本発明を説明する。   The present invention will be described below with reference to the illustrated embodiments.

本発明の一実施形態の画像表示装置と、この画像表示装置を含んで形成される画像表示システムの構成について、以下に説明する。   A configuration of an image display device according to an embodiment of the present invention and an image display system formed by including the image display device will be described below.

図1は、本発明の一実施形態の画像表示システムの全体構成を概略的に示すブロック構成図である。   FIG. 1 is a block diagram schematically showing the overall configuration of an image display system according to an embodiment of the present invention.

図1に示すように、本実施形態の画像表示システム1は、本発明が適用される画像表示装置を含んで構成されるデジタルカメラ(以下、単にカメラという)10と、通信ネットワーク50と、小型コンピュータ(PC)40と、外部サーバー100と、データベース110等によって主に構成される。   As shown in FIG. 1, an image display system 1 according to this embodiment includes a digital camera (hereinafter simply referred to as a camera) 10 including an image display device to which the present invention is applied, a communication network 50, and a small size. It is mainly configured by a computer (PC) 40, an external server 100, a database 110, and the like.

カメラ10は、撮影レンズ11と、合焦レンズ位置制御部(以下、AF部という)12と、光量調整部13と、光量制御部14と、撮像素子15と、アナログフロントエンド部(以下、AFE部という)16と、画像処理部17と、この画像処理部17内に設けられる顔検出部17aと、圧縮伸長部18と、記録再生部19と、記録媒体20と、表示制御部21と、表示部22と、通信部23と、補助光発光部24と、MPU(Micro Processing Unit)31と、時計31aと、ROM32と、操作スイッチ(図1では操作SWと表記している)33と、表情判定及び感情類推部25と、テキストデータベース26と、情感判定部27と、画像選択部28と、画像判定部29と、テキスト合成部30等によって主に構成されている。   The camera 10 includes a photographing lens 11, a focusing lens position control unit (hereinafter referred to as AF unit) 12, a light amount adjustment unit 13, a light amount control unit 14, an image sensor 15, and an analog front end unit (hereinafter referred to as AFE). 16), image processing unit 17, face detection unit 17 a provided in the image processing unit 17, compression / decompression unit 18, recording / reproducing unit 19, recording medium 20, display control unit 21, A display unit 22, a communication unit 23, an auxiliary light emitting unit 24, an MPU (Micro Processing Unit) 31, a clock 31a, a ROM 32, an operation switch (indicated as operation SW in FIG. 1) 33, It is mainly configured by a facial expression determination and emotion analogy unit 25, a text database 26, an emotion determination unit 27, an image selection unit 28, an image determination unit 29, a text synthesis unit 30, and the like. It is.

MPU31は、例えばROM32等に格納されているプログラムに基づいて本カメラ10全体の制御を司る制御回路である。MPU31は、その内部に時間を計時する時計31aを有している。MPU31は、撮影動作に伴う画像データの記録動作時に、この時計31aにより計時される撮影時点の時間情報を画像処理部17へと出力するようになっている。これにより、本カメラ10による撮影動作の結果、取得され最終的に記録媒体20に記録される画像データには、撮影時点の撮影日時情報が付与されるようになっている。   The MPU 31 is a control circuit that controls the entire camera 10 based on, for example, a program stored in the ROM 32 or the like. The MPU 31 has a clock 31a for measuring time inside. The MPU 31 outputs time information at the time of photographing, which is timed by the clock 31a, to the image processing unit 17 at the time of image data recording operation accompanying the photographing operation. Thereby, as a result of the photographing operation by the camera 10, photographing date / time information at the time of photographing is given to the image data acquired and finally recorded on the recording medium 20.

撮影レンズ11は、被写体35の側からの光束(被写体光)を透過させて、被写体35の光像(被写体像)を結像させるものである。この撮影レンズ11は、変倍機能を実現するズームレンズ部や、自動焦点検出及び調節(オートフォーカス)機能を実現するフォーカスレンズ部等、複数の光学レンズや、これらの光学レンズを保持するレンズ保持枠及びこれらのレンズ保持枠等を光軸に沿う方向に所定の時に所定の量だけ移動させる駆動機構等によって構成されている。   The photographing lens 11 transmits a light beam (subject light) from the subject 35 side and forms an optical image (subject image) of the subject 35. The photographing lens 11 includes a plurality of optical lenses such as a zoom lens unit that realizes a zooming function and a focus lens unit that realizes an automatic focus detection and adjustment (autofocus) function, and a lens holding unit that holds these optical lenses. The frame and the lens holding frame are configured by a drive mechanism that moves the frame by a predetermined amount at a predetermined time in the direction along the optical axis.

AF部12は、MPU31の制御下で自動焦点検出及び調節(オートフォーカス)動作のための制御を実行する制御部であって、撮影レンズ11のフォーカスレンズ部に作用して焦点調節動作のための駆動制御をおこなう制御回路である。また、AF部12は、使用者の所定の操作部材の操作による指示指令によって、オートフォーカス動作によって得られた合焦位置の切り換え制御をおこなったり、変倍用レンズの駆動制御をおこなって撮影画角の切り換え動作(いわゆるズーミング動作)の制御等をもおこない得るようになっている。   The AF unit 12 is a control unit that executes control for automatic focus detection and adjustment (autofocus) operation under the control of the MPU 31, and acts on the focus lens unit of the photographing lens 11 to perform focus adjustment operation. It is a control circuit that performs drive control. In addition, the AF unit 12 performs switching control of the in-focus position obtained by the autofocus operation according to an instruction command by a user's operation of a predetermined operation member, or performs drive control of the zooming lens to take a captured image. Control of corner switching operation (so-called zooming operation) can also be performed.

光量調整部13は、撮影レンズ11の保持枠内部やその近傍等に配設され、撮影レンズ11を透過して本カメラ10の内部に入射する被写体光の入射光量(即ち露出量)を制御するシャッター機構や絞り調整機構等によって構成されている。   The light amount adjusting unit 13 is disposed in the holding frame of the photographing lens 11 or in the vicinity thereof, and controls the incident light amount (that is, the exposure amount) of subject light that passes through the photographing lens 11 and enters the camera 10. It is configured by a shutter mechanism, an aperture adjustment mechanism, and the like.

光量制御部14は、MPU31の制御下で、撮影動作をおこなう際の環境下における被写体光の測定をおこなって(測光動作)、撮影レンズ11を介して撮像素子15に到達する光量が画像を生成するのに適切な光量(適正露出量)となるように自動的に調整する自動露出制御をおこなったり、使用者が所定の操作部材を用いて任意に露出値(シャッター速度及び絞り値)を設定する手動露出制御をおこなう際に光量調整部13を駆動制御する制御回路である。   The light amount control unit 14 measures subject light under the environment when performing a photographing operation under the control of the MPU 31 (photometric operation), and the amount of light reaching the image sensor 15 via the photographing lens 11 generates an image. Automatic exposure control that automatically adjusts the light amount to be appropriate (appropriate exposure amount), or the user arbitrarily sets the exposure value (shutter speed and aperture value) using predetermined operation members This is a control circuit that drives and controls the light amount adjusting unit 13 when performing manual exposure control.

例えば、光量調整部13の絞り調整機構の絞り制御を意図的におこなうと、撮影レンズ11の被写界深度を調整することができる。つまり、被写界深度を調整することによって、画像の背景部分のぼけ具合等を好みに応じて調整することができるので、例えば背景をぼかして近景の主要被写体を浮かび上がらせるような効果を持たせた描写にしたり、近景から背景までの広い範囲で合焦状態とした描写にする等、使用者の表現意図に応じた所望の画像を得るための調整をおこなうことができる。   For example, if the aperture control of the aperture adjustment mechanism of the light amount adjustment unit 13 is intentionally performed, the depth of field of the photographing lens 11 can be adjusted. In other words, by adjusting the depth of field, you can adjust the degree of blurring of the background part of the image according to your preference.For example, it has the effect of blurring the background and highlighting the main subject in the foreground. It is possible to make adjustments for obtaining a desired image according to the expression intention of the user, such as making a description in a focused state in a wide range from the foreground to the background.

また、自動露出制御によって設定される露出値に対して使用者の意図により露出補正をおこなう場合には、所定の操作部材の操作によって、自動設定される露出値に対して使用者の所望の補正をおこなうこともできる。この場合、例えば光量制御部14により自動設定される露出値に対して使用者が任意にシャッター速度値や絞り値の制御を変更することで、画像の明暗のコントロール等をおこなって、使用者の表現意図を効果的に表すようにすることができる。   Further, when the exposure correction is performed on the exposure value set by the automatic exposure control according to the user's intention, the user's desired correction is performed on the exposure value automatically set by operating a predetermined operation member. Can also be done. In this case, for example, the user arbitrarily controls the shutter speed value and the aperture value with respect to the exposure value automatically set by the light amount control unit 14, thereby controlling the brightness of the image and the like. The expression intention can be expressed effectively.

撮像素子15は、撮影レンズ11により結像される被写体像を受光して光電変換処理をおこない電気的な画像信号を生成し出力する光電変換素子である。撮像素子15としては、例えば、多数の受光素子(画素)からなるCCDセンサやCMOSセンサ等が適用される。   The imaging element 15 is a photoelectric conversion element that receives a subject image formed by the photographing lens 11 and performs a photoelectric conversion process to generate and output an electrical image signal. For example, a CCD sensor or a CMOS sensor composed of a large number of light receiving elements (pixels) is applied as the imaging element 15.

AFE部16は、撮像素子15からの出力信号(アナログ信号)を受けてデジタル信号に変換するいわゆるAD変換処理等をおこなってデジタル画像信号を出力する信号処理回路である。また、AFE部16は、撮像素子15の出力信号を取捨選択する機能も有しており、撮像素子15の全受光面のうち所定の範囲の画像データを抽出することができるようにもなっている。   The AFE unit 16 is a signal processing circuit that receives an output signal (analog signal) from the image sensor 15 and performs a so-called AD conversion process for converting it into a digital signal and outputs a digital image signal. The AFE unit 16 also has a function of selecting the output signal of the image sensor 15, and can extract a predetermined range of image data from the entire light receiving surface of the image sensor 15. Yes.

画像処理部17は、本カメラ10において扱うデジタル画像信号に関する各種の信号処理、例えば色や階調やシャープネス等の補正処理等をおこなう信号処理回路である。また、画像処理部17は、取得したデジタル画像信号を所定の信号レベルに増幅し、適正な濃淡や適正なグレーレベルに設定する増感処理等もおこなうようになっている。ここで、増感処理は、デジタル化された信号レベルが所定のレベルになるようにデジタル演算をおこなう処理である。また、画像処理部17は、取得したデジタル画像信号に基いて表示部22で表示するのに最適な形態の画像データを生成する処理、例えばリサイズ処理等をおこなうようになっている。   The image processing unit 17 is a signal processing circuit that performs various types of signal processing related to digital image signals handled by the camera 10, for example, correction processing such as color, gradation, and sharpness. Further, the image processing unit 17 amplifies the acquired digital image signal to a predetermined signal level, and performs a sensitization process for setting an appropriate gray level or an appropriate gray level. Here, the sensitization process is a process of performing a digital calculation so that the digitized signal level becomes a predetermined level. Further, the image processing unit 17 performs processing for generating image data in an optimal form for display on the display unit 22 based on the acquired digital image signal, for example, resizing processing.

さらに、画像処理部17は、オートフォーカス動作に利用するためのコントラスト信号も出力する。このコントラスト信号は、AF部12へと出力されるようになっており、これを受けたAF部12は、被写体像のコントラストを判定し、コントラストが最も高くなる位置に撮影レンズ11を移動させる制御をおこなうようになっている。   Furthermore, the image processing unit 17 also outputs a contrast signal for use in the autofocus operation. The contrast signal is output to the AF unit 12, and the AF unit 12 that receives the contrast signal determines the contrast of the subject image and moves the photographing lens 11 to a position where the contrast becomes the highest. It is supposed to do.

圧縮伸長部18は、撮影動作時には画像処理部17で所定の処理が施されて出力されるデジタル画像信号を受けて所定の記録方式に準拠した画像信号に変換処理する信号圧縮処理をおこなって記録用の画像信号を生成し、これを記録再生部19へと出力する信号処理部である。また、圧縮伸長部18は、再生動作時には記録媒体20に記録されている画像データを読み出して本カメラ10で取り扱い得る形態の画像信号に変換処理する信号伸長処理をおこなって表示用の画像信号を生成し、これを画像処理部17を介して表示制御部21へと出力する信号処理回路である。   The compression / decompression unit 18 performs a signal compression process of receiving a digital image signal that is output after being subjected to a predetermined process by the image processing unit 17 and performing a conversion process into an image signal that conforms to a predetermined recording method during recording. This is a signal processing unit that generates an image signal for output and outputs it to the recording / reproducing unit 19. The compression / decompression unit 18 reads image data recorded on the recording medium 20 during a reproduction operation, and performs a signal decompression process for converting the image data into a format that can be handled by the camera 10 to display an image signal for display. This is a signal processing circuit that generates and outputs this to the display control unit 21 via the image processing unit 17.

記録再生部19は、圧縮伸長部18によって圧縮処理された画像データやその他のデータ(時間情報等)等を記録媒体20の記録領域へと記録する処理回路である。   The recording / reproducing unit 19 is a processing circuit that records the image data compressed by the compression / decompression unit 18, other data (time information, etc.) and the like in the recording area of the recording medium 20.

記録媒体20は、記録再生部19から出力される画像信号を画像データとして記録するための媒体である。この記録媒体20は、例えば通常の場合、例えば不揮発性半導体メモリ,フラッシュメモリ等からなる着脱式の記録媒体が主に適用されるが、それ以外にも、例えばCD−ROM,DVD等の光学記録媒体,MD等の光磁気記録媒体,テープ媒体等の磁気記録媒体,ICカード等の半導体メモリや、内蔵型のフラッシュメモリ等が用いられる。   The recording medium 20 is a medium for recording the image signal output from the recording / reproducing unit 19 as image data. As the recording medium 20, for example, a detachable recording medium composed of, for example, a non-volatile semiconductor memory, a flash memory, or the like is mainly applied. However, other than that, for example, optical recording such as a CD-ROM or DVD A medium, a magneto-optical recording medium such as an MD, a magnetic recording medium such as a tape medium, a semiconductor memory such as an IC card, a built-in flash memory, or the like is used.

表示制御部21は、MPU31の制御下において画像処理部17からの出力信号を受けて表示部22に画像を表示させるために、当該表示部22を駆動制御する制御回路である。   The display control unit 21 is a control circuit that drives and controls the display unit 22 in order to receive an output signal from the image processing unit 17 and display an image on the display unit 22 under the control of the MPU 31.

表示部22は、表示制御部21によって駆動制御されることで、各種の画像、例えば撮影動作により取得され記録媒体20に記録済みの画像や後述するテキスト合成部30により作成されたテキスト合成画像(テキスト画像)を表示したり、各種の設定メニュー画面等を表示するメイン表示装置である。表示部22としては、例えば液晶ディスプレイ(LCD)や有機EL(有機エレクトロルミネッセンス;Organic Electro-Luminescence)ディスプレイ等が適用される。   The display unit 22 is driven and controlled by the display control unit 21, so that various images, for example, images acquired by shooting operations and recorded in the recording medium 20, and text synthesized images (described later) created by the text synthesizing unit 30 ( This is a main display device that displays a text image) and various setting menu screens. As the display unit 22, for example, a liquid crystal display (LCD), an organic EL (Organic Electro-Luminescence) display, or the like is applied.

表示部22には、撮影動作時にはモニタ画像が表示される。このモニタ画像は、次のようにして生成されるものである。即ち、撮像素子15からの出力信号を受けたAFE部16は、入力された画像信号を高速で読み出すための間引き読出し処理をおこなって画像処理部17へと出力する。これを受けて画像処理部17は、入力信号(間引き読出しされた画像信号)をAD変換処理した後、リサイズ処理を施して表示用の画像信号を生成し、表示制御部21へと出力する。これを受けて表示制御部21は、表示部22を駆動制御して、その表示画面上に画像を表示する。   A monitor image is displayed on the display unit 22 during the photographing operation. This monitor image is generated as follows. That is, the AFE unit 16 that has received the output signal from the image sensor 15 performs a thinning-out reading process for reading out the input image signal at high speed, and outputs it to the image processing unit 17. In response to this, the image processing unit 17 performs an AD conversion process on the input signal (the image signal that has been thinned and read), generates a display image signal by performing a resizing process, and outputs the image signal to the display control unit 21. In response to this, the display control unit 21 drives and controls the display unit 22 to display an image on the display screen.

このようにして、本カメラ10が撮影動作モードで動作し撮影待機状態にあるときの表示部22には、MPU31の制御下で撮像素子15において取得された画像信号に基づく画像が表示される。したがって、使用者は、撮影動作に先立って表示部22を用いて撮影されるべき画像を予め確認することができる。このことから、表示部22は、画像観察手段(ファインダー)として機能している。つまり、使用者は、撮影動作時には、撮像素子15によって取得され続ける画像、即ち表示部22に表示されるモニタ画像を見ながら構図を決定したり、撮影のタイミングを測ったり、やシャッターチャンスを決定することができるようになっている。   In this way, an image based on the image signal acquired by the image sensor 15 under the control of the MPU 31 is displayed on the display unit 22 when the camera 10 operates in the shooting operation mode and is in the shooting standby state. Therefore, the user can confirm in advance the image to be photographed using the display unit 22 prior to the photographing operation. Therefore, the display unit 22 functions as an image observation unit (finder). In other words, the user determines the composition while observing the image continuously acquired by the image sensor 15, that is, the monitor image displayed on the display unit 22, measuring the shooting timing, and determining the photo opportunity during the shooting operation. Can be done.

一方、本カメラ10が再生動作モードで動作しているときには、MPU31の制御下で記録再生部19により記録媒体20から読み出された画像データが圧縮伸長部18において伸長処理される。こうして生成された画像信号は、画像処理部17へと出力され、この画像処理部17においてリサイズ処理等がおこなわれる。これにより生成された表示用の画像信号は表示制御部21を介して表示部22へと出力される。   On the other hand, when the camera 10 is operating in the playback operation mode, the image data read from the recording medium 20 by the recording / playback unit 19 under the control of the MPU 31 is decompressed by the compression / decompression unit 18. The image signal generated in this way is output to the image processing unit 17, and the image processing unit 17 performs resizing processing and the like. The display image signal thus generated is output to the display unit 22 via the display control unit 21.

このようにして、本カメラ10が再生動作モードで動作しているときの表示部22には、記録媒体20に予め記録されている画像データに基づく画像が表示される。したがって、使用者は、撮影動作によって取得して記録媒体20に記録されている画像データに基いて表される画像を、表示部22によって確認もしくは鑑賞することができるようになっている。   In this way, an image based on the image data recorded in advance on the recording medium 20 is displayed on the display unit 22 when the camera 10 is operating in the playback operation mode. Therefore, the user can confirm or appreciate the image displayed on the basis of the image data acquired by the photographing operation and recorded on the recording medium 20 by the display unit 22.

ROM32は、本カメラ10の動作制御のための各種の制御プログラムや各種規定の設定情報等が予め記憶されている不揮発性半導体メモリ等である。   The ROM 32 is a nonvolatile semiconductor memory or the like in which various control programs for controlling the operation of the camera 10 and various setting information are stored in advance.

操作スイッチ33は、本カメラ10に設けられる各種の操作部材からの指示信号をMPU31へと出力する複数のスイッチ等からなる電気部品を含む電気回路を指している。   The operation switch 33 indicates an electric circuit including an electric component including a plurality of switches that output instruction signals from various operation members provided in the camera 10 to the MPU 31.

この場合において、MPU31は、各スイッチからの指示信号の状態を検出し、各指示信号に対応する複数の構成ブロックをシーケンシャルに制御するようになっている。MPU31は、使用者による操作部材の操作により出力される各指示信号にしたがって各対応する各種の制御をおこなうようになっている。   In this case, the MPU 31 detects the state of the instruction signal from each switch and sequentially controls a plurality of constituent blocks corresponding to each instruction signal. The MPU 31 performs various controls corresponding to each instruction signal output by the operation of the operation member by the user.

本カメラ10において、操作スイッチ33に連繋する各種の操作部材としては、本カメラ10の主電源のオンオフ操作をおこなう電源スイッチや、本カメラ10を再生モードで起動させるための再生モード起動ボタンや、撮影モードと再生モードの切り換えをおこなう動作モード切換ボタンや、オートフォーカス動作や自動露出制御や撮影動作等の開始指示等を行うシャッターボタンや、上下左右方向に操作することで所定の指示信号を発生させる上下左右操作ボタンや、合成用テキストの選択操作等、一般的なデジタルカメラに備わる操作部材等がある。   In the camera 10, various operation members linked to the operation switch 33 include a power switch for turning on / off the main power of the camera 10, a playback mode start button for starting the camera 10 in the playback mode, Operation mode switching button that switches between shooting mode and playback mode, shutter button that gives instructions for starting auto focus operation, automatic exposure control, shooting operation, etc. There are operation members and the like provided in a general digital camera, such as an up / down / left / right operation button to be displayed, and a text selection operation.

補助光発光部24は、MPU31の制御下で必要に応じて被写体35に向けて撮影用の補助光を照射する閃光発光装置である。これにより、例えば低照度環境においても被写体の輝度不足を補ったり、撮影画面内の明るさが不均一になるのを防止して鮮明な画像を取得することができるようにしている。   The auxiliary light emitting unit 24 is a flash light emitting device that emits photographing auxiliary light toward the subject 35 as needed under the control of the MPU 31. Thereby, for example, even in a low illumination environment, it is possible to compensate for insufficient luminance of the subject or to prevent the brightness in the shooting screen from becoming uneven and to obtain a clear image.

通信部23は、MPU31の制御下で通信ネットワーク50を介して当該カメラ10に接続される小型コンピュータ(PC)40や外部サーバー100等の外部機器との間で、画像データ等の送受信を行うための構成ユニットである。   The communication unit 23 transmits and receives image data and the like with an external device such as a small computer (PC) 40 or an external server 100 connected to the camera 10 via the communication network 50 under the control of the MPU 31. It is a component unit.

一方、上述したように、画像処理部17は、顔検出部17aを有して構成されている。この顔検出部17aは、画像処理部17から出力される表示用モニタ画像データを利用して表示部22の表示画面中に表示される画像の中から人間の顔のある位置を検出する処理をおこなう処理回路である。つまり、顔検出部17aは、撮像素子15から出力される画像信号に基いて被写体の顔を検出する。   On the other hand, as described above, the image processing unit 17 includes the face detection unit 17a. The face detection unit 17a uses the display monitor image data output from the image processing unit 17 to perform processing for detecting the position of a human face from the image displayed on the display screen of the display unit 22. It is a processing circuit to perform. That is, the face detection unit 17a detects the face of the subject based on the image signal output from the image sensor 15.

表情判定及び感情類推部25は、顔検出部17aにより検出された表示画面中における人間の顔を含む所定領域の画像の部分的な画像データ(以下、顔部分画像データという)を用いて、人間の顔のパーツの変化形状等を判断して被写体の表情を判定すると共に、各画像中における人物の表情から、その時の感情を類推することにより、画像中の人物の表情に基づいて各画像を数値化する処理をおこなう処理回路である。つまり、表情判定及び感情類推部25は、画像の被写体の表情を判定する表情判定部として機能する。詳しくは、表情判定及び感情類推部25は、画像内から検出された被写体の顔についての笑顔の度合いに基づいて被写体の表情を判定する。また、表情判定及び感情類推部25は、顔検出部17aによって検出された被写体の顔についての笑顔の度合いに基いて被写体の表情を判定する。   The facial expression determination and emotion analogy unit 25 uses a partial image data (hereinafter referred to as face partial image data) of an image of a predetermined area including a human face in the display screen detected by the face detection unit 17a. The facial expression of the subject is determined by judging the change shape of the facial parts of each person, and by estimating the emotion at that time from the facial expression of the person in each image, each image is based on the facial expression of the person in the image. It is a processing circuit that performs processing for digitization. That is, the facial expression determination and emotion analogy unit 25 functions as a facial expression determination unit that determines the facial expression of the subject of the image. Specifically, the facial expression determination and emotion analogy estimation unit 25 determines the facial expression of the subject based on the degree of smile on the subject's face detected from the image. Further, the facial expression determination and emotion analogy unit 25 determines the facial expression of the subject based on the degree of smile on the subject's face detected by the face detection unit 17a.

表情判定及び感情類推部25によってなされる表情判定は、例えば笑顔や怒った顔等の度合いを判定して数値化する処理をおこなう。この表情判定処理の詳細については、後述するが、本実施形態においては、具体的には、例えば笑顔度を表す数値データとして所定の笑顔データR値を算出し、笑顔度を数値化して表す処理をおこなう。   The facial expression determination performed by the facial expression determination and emotion analogy unit 25 performs, for example, a process of determining the degree of a smile, an angry face, etc., and digitizing it. Although details of this facial expression determination process will be described later, in the present embodiment, specifically, for example, a predetermined smile data R value is calculated as numerical data representing the smile level, and the smile level is expressed as a numerical value. To do.

テキストデータベース26は、例えば映画,テレビドラマ等のセリフや字幕または小説,エッセイ等の一区切りの文章(以下、センテンスという)等の文字列データが大量に蓄積されたデータの集合であって、テキスト(センテンス)をデータとして記録するテキスト記録部として機能しているものである。   The text database 26 is a set of data in which a large amount of character string data such as words such as movies, TV dramas, subtitles, novels, essays, etc. (hereinafter referred to as sentences) is accumulated, It functions as a text recording unit that records sentences as data.

情感判定部27は、テキストデータベース26から選択された各センテンスのデータに情感データが付与されていない場合に、そのセンテンスのデータを分析して情感を判定し、その判定結果を情感データとして、そのセンテンスのデータに付与する処理をおこなう処理回路である。つまり、情感判定部27は、テキストの情感を判定するものである。詳しくは、情感判定部27は、テキストを構成する各センテンス毎に情感を判定する。   The sentiment determination unit 27 analyzes the sentence data when the sentiment data is not given to the data of each sentence selected from the text database 26, and determines the sentiment as the sentiment data. It is a processing circuit that performs processing to be added to sentence data. That is, the emotion determination unit 27 determines the emotion of the text. Specifically, the emotion determination unit 27 determines the emotion for each sentence constituting the text.

ここで情感とは、喜怒哀楽といった人間の感情を意味している。また、センテンスの情感データについては、その詳細は後述するが、本実施形態においては、例えば表1に示すように、センテンス内容に応じて、対応する情感(喜怒哀楽)を数値0〜10の範囲で表すようにした場合の数値データを指している。

Figure 2009141516
Here, emotion means human emotions such as emotions. Details of the sentiment emotion data will be described later, but in the present embodiment, as shown in Table 1, for example, according to the contents of the sentence, the corresponding emotion (feeling emotional) is a numerical value 0-10. Indicates numerical data when expressed as a range.
Figure 2009141516

画像選択部28は、表情判定及び感情類推部25による判定結果を利用して、選択されたセンテンス内容に対応する画像を選択する処理回路である。その選択処理の詳細は後述するが、例えば選択されたセンテンスに付与されている情感データに応じた表情の被写体を含む画像を選択する処理である。つまり、画像選択部28は、テキスト(センテンス群)に対応する画像として、情感判定部27により判定されるテキスト(センテンス)の情感に、表情判定及び感情類推部25(表情判定部)により判定される被写体の表情が対応する画像を選択するものである。詳しくは、画像選択部28は、各センテンスの情感に被写体の表情が対応する画像をそれぞれ選択する。   The image selection unit 28 is a processing circuit that selects an image corresponding to the selected sentence content using the determination result by the facial expression determination and emotion analogy unit 25. Although details of the selection process will be described later, for example, this is a process of selecting an image including a subject having a facial expression corresponding to the emotion data assigned to the selected sentence. That is, the image selection unit 28 determines the emotion of the text (sentence) determined by the emotion determination unit 27 as an image corresponding to the text (sentence group) by the facial expression determination and emotion analogy unit 25 (facial expression determination unit). The image corresponding to the facial expression of the subject to be selected is selected. Specifically, the image selection unit 28 selects images in which the expression of the subject corresponds to the emotion of each sentence.

画像判定部29は、画像選択部28により選択された画像の特徴等を判定し、テキスト合成に適した位置、例えば画像のコントラストが低くかつ平坦な位置を検出する処理をおこなう処理回路である。   The image determination unit 29 is a processing circuit that determines the characteristics of the image selected by the image selection unit 28 and detects a position suitable for text synthesis, for example, a position where the contrast of the image is low and flat.

テキスト合成部30は、画像にテキストを合成する処理を行う処理回路である。具体的には、テキスト合成部30は、例えば画像選択部28によって選択された画像における、画像判定部29により判定された位置に対して、所定のセンテンスを合成処理してテキスト合成画像(テキスト画像)信号を生成する。このテキスト合成部30により生成されたテキスト合成画像信号は画像処理部17を介して記録再生部19へと出力され記録媒体20に記録されるようになっている。   The text synthesis unit 30 is a processing circuit that performs a process of synthesizing text with an image. Specifically, the text composition unit 30 performs a composition process on a predetermined sentence at the position determined by the image determination unit 29 in the image selected by the image selection unit 28, for example, and performs a text composition image (text image). ) Generate a signal. The text synthesized image signal generated by the text synthesizing unit 30 is output to the recording / reproducing unit 19 via the image processing unit 17 and recorded on the recording medium 20.

この場合において、記録再生部19は、テキスト合成画像データを記録媒体20に記録する際には、例えばテキストの表すテーマ(表題)毎に分類し、各テーマに対応するフォルダーに記録するようにしてもよいし、各テーマに応じてセンテンスに付与された番号等に基づく順番で記録するようにしてもよい。   In this case, when recording the text composite image data on the recording medium 20, the recording / playback unit 19 classifies the text composite image data, for example, for each theme (title) represented by the text, and records it in a folder corresponding to each theme. Alternatively, it may be recorded in the order based on the number assigned to the sentence according to each theme.

また、テキスト合成画像データを生成するセンテンスのデータ自体と、これに対応する画像データの画像番号や合成位置等の情報とを合成用データとして記録媒体20の所定の領域(所定のフォルダー等)に記録しておき、合成画像の再生動作時に、この合成用データと対応する画像データ(別のメイン領域に記録されている)の両者を読み込んで、合成処理して再生表示するようにしてもよい。   Further, the sentence data itself for generating the text composite image data and the information such as the image number and the composite position of the corresponding image data are stored in the predetermined area (predetermined folder, etc.) of the recording medium 20 as the composite data. It may be recorded, and at the time of the composite image reproduction operation, both the composition data and the corresponding image data (recorded in another main area) may be read, synthesized, and reproduced and displayed. .

他方、本実施形態の画像表示システム1において、カメラ10とPC40とは、通信ネットワーク50を介して外部サーバー100に対して通信可能に接続されている。   On the other hand, in the image display system 1 of the present embodiment, the camera 10 and the PC 40 are communicably connected to the external server 100 via the communication network 50.

外部サーバー100は、記録表示部101と、通信部102と、センテンス抽出部103等を具備して構成されるサーバ装置である。また、外部サーバー100には、データベース110が接続されている。   The external server 100 is a server device that includes a recording display unit 101, a communication unit 102, a sentence extraction unit 103, and the like. A database 110 is connected to the external server 100.

通信部102は、通信ネットワーク50を介して接続されるカメラ10,PC40等との間で通信をおこなう処理回路である。即ち、この通信部102は、カメラ10,PC40等を利用する使用者からの通信に対して応答したり、使用者からの要求に応じて記録済みの各種データを使用者側の機器に向けて送信する通信機能を有している。   The communication unit 102 is a processing circuit that performs communication with the camera 10, the PC 40, and the like connected via the communication network 50. That is, the communication unit 102 responds to communication from a user who uses the camera 10, the PC 40, or the like, or directs various recorded data to a user side device in response to a request from the user. It has a communication function to transmit.

記録表示部101は、通信部102によって実現される通信機能によって、使用者から送信されるコンテンツ(情報)を受信して記録する記録機能と、使用者側からの要求によって記録済みのコンテンツ(情報)を表示する表示機能とを有する処理回路である。   The recording / display unit 101 receives and records content (information) transmitted from the user by a communication function realized by the communication unit 102, and content (information) recorded by a request from the user. And a display function for displaying ().

センテンス抽出部103は、データベース110の文書データベース111(後述する)に記録されている文書データから所定のセンテンス抽出処理をおこなう処理回路である。   The sentence extraction unit 103 is a processing circuit that performs a predetermined sentence extraction process from document data recorded in a document database 111 (described later) of the database 110.

このセンテンス抽出部103は、例えば後述する文書データベース111を検索して、映画,テレビドラマ,小説,エッセイ等のタイトルに対応する文書内容を読み出して、その文書中に含まれる各センテンスについての検索をおこなって、全体的に物語り(ストーリー)を構成することのできる複数のセンテンスを抽出する処理をおこなう。   The sentence extraction unit 103 searches, for example, a document database 111 to be described later, reads document contents corresponding to titles of movies, TV dramas, novels, essays, etc., and searches for each sentence included in the document. The process of extracting a plurality of sentences that can constitute a story as a whole is performed.

また、センテンス抽出部103は、各センテンスが表わす喜怒哀楽の人間の感情を数値化するための情感データを後述する情感データベース112から抽出する処理をおこなう。   In addition, the sentence extraction unit 103 performs processing for extracting emotion data for digitizing emotions expressed by each sentence from emotion database 112 described later.

なお、センテンス抽出部103は、各センテンスのデータから直接情感データを抽出するだけではなく、一センテンスから他のセンテンスへと移行する際の情感の変化から情感データを抽出するようにしてもよい。センテンス抽出部103についての詳細は、さらに後述する。   Note that the sentence extraction unit 103 may extract emotion data not only from emotion data directly from each sentence data but also from emotional changes at the time of transition from one sentence to another. Details of the sentence extraction unit 103 will be described later.

この外部サーバー100としては、例えばブログ(Blog)やSNS(ソーシャル・ネットワーキング・サービス)等のCGM(コンシューマー・ジェネレイテッド・メディア;消費者生成メディア等と訳される)を管理するサービスをおこなう大型コンピュータ等によって構築されるサーバー装置が適している。   As this external server 100, for example, a large computer that provides a service for managing CGM (consumer-generated media; translated into consumer-generated media, etc.) such as a blog or SNS (social networking service) A server device constructed by, for example, is suitable.

一方、データベース110は、文書データベース111と情感データベース112とを含んで構成されている。   On the other hand, the database 110 includes a document database 111 and an emotion database 112.

文書データベース111には、例えば映画,テレビドラマ等のセリフや字幕または小説,エッセイ等の文書類がテキスト情報のデータベースとして蓄積されている。   In the document database 111, for example, text such as movies and TV dramas, subtitles, novels, essays, and other documents are stored as a text information database.

情感データベース112には、例えば複数のセンテンスによって表わされる喜怒哀楽の情感データや、一つのセンテンスから他のセンテンスへと移行するときの情感の変化等のデータがデータベースとして蓄積されている。   The emotion database 112 stores, for example, emotional and emotional emotional data represented by a plurality of sentences, and data such as emotional changes when moving from one sentence to another.

ここで、本実施形態の画像表示システム1において、使用者の要求を受けて外部サーバー100からカメラ10へとセンテンスデータが送信される際の作用の流れの概略を、以下に簡単に説明する。   Here, in the image display system 1 of the present embodiment, an outline of an operation flow when sentence data is transmitted from the external server 100 to the camera 10 in response to a user request will be briefly described below.

まず、使用者は、自身が感銘を受けた映画,ドラマ,小説等のタイトル名の情報、例えば「冒険・・・」,「愛の・・・」,「世界の遺産・・・」等、または、自身が作成したいテーマの具体的なタイトル名の情報、例えば「ビジネスピンチ大脱出」,「わくわく旅行・・・」等の任意のタイトル名情報を、PC40等を利用して通信ネットワーク50を介して外部サーバー100へと送信する。   First, the user is informed of the title name of the movie, drama, novel, etc. that he / she was impressed with, such as “Adventure ...”, “Love ...”, “World Heritage ...”, etc. Alternatively, information on a specific title name of a theme that the user wants to create, for example, arbitrary title name information such as “Escape Business Pinch”, “Exciting Travel ...”, etc., can be used for the communication network 50 using the PC 40 or the like. To the external server 100.

外部サーバー100の通信部102は、PC40等との間で通信ネットワーク50を介した通信をおこなって、上述のPC40から送信されたタイトル名情報を受信し、これをセンテンス抽出部103へと送る。   The communication unit 102 of the external server 100 performs communication with the PC 40 or the like via the communication network 50, receives the title name information transmitted from the PC 40 and sends it to the sentence extraction unit 103.

これを受けて、外部サーバー100のセンテンス抽出部103は、データベース110の文書データベース111を参照して、受信したタイトル名情報に応じたストーリーを構成できる複数のセンテンスを抽出する。これと共に、センテンス抽出部103は、情感データベース112を参照して、自身が抽出した複数のセンテンスに対応する情感データを抽出する。こうして抽出された複数のセンテンスと、これらに対応する情感データとは、一つのセンテンスデータとして通信部102へと送られる。なお、抽出されたセンテンスに対応する情感データが抽出できない場合もある。その場合には、抽出された複数のセンテンスのみがセンテンスデータとして通信部102へ送られる。   In response to this, the sentence extraction unit 103 of the external server 100 refers to the document database 111 of the database 110 and extracts a plurality of sentences that can form a story according to the received title name information. At the same time, the sentence extraction unit 103 refers to the emotion database 112 and extracts emotion data corresponding to a plurality of sentences extracted by the sentence extraction unit 103. The plurality of sentences extracted in this way and the emotion data corresponding thereto are sent to the communication unit 102 as one sentence data. In some cases, emotional data corresponding to the extracted sentence cannot be extracted. In that case, only a plurality of extracted sentences are sent to the communication unit 102 as sentence data.

これを受けて、外部サーバー100の通信部102は、通信ネットワーク50を介してカメラ10との通信をおこなう。これにより、上述のセンテンスデータ(抽出された複数のセンテンス及び情感データ)は、外部サーバー100からカメラ10へと送信される。   In response to this, the communication unit 102 of the external server 100 communicates with the camera 10 via the communication network 50. As a result, the above-described sentence data (a plurality of extracted sentence and emotion data) is transmitted from the external server 100 to the camera 10.

このようにして、外部サーバー100は、使用者が送信したタイトル名情報に基いて、タイトル名に応じたストーリーを構成できる複数のセンテンスと対応する情感データ等をデータベースから抽出し、これをセンテンスデータとしてカメラ10へと送信する。   In this way, the external server 100 extracts a plurality of sentences that can form a story according to the title name and the corresponding emotion data from the database based on the title name information transmitted by the user, and extracts the sentence data from the database. To the camera 10.

次に、本実施形態の画像表示システム1において、上述のセンテンスデータを受信したカメラ10側の作用の流れの概略を、以下に簡単に説明する。   Next, in the image display system 1 of the present embodiment, an outline of the operation flow on the camera 10 side that has received the sentence data will be briefly described below.

カメラ10は、MPU31の制御下で通信部23が通信ネットワーク50を介した通信をおこなって、外部サーバー100から送信された上述のセンテンスデータを受信する。   In the camera 10, the communication unit 23 performs communication via the communication network 50 under the control of the MPU 31 and receives the above-described sentence data transmitted from the external server 100.

受信されたセンテンスデータは、通信部23からテキストデータベース26へと送られる。当該テキストデータベース26は、MPU31の制御下において入力されたセンテンスデータを、これが対応するテーマ名と共に記録する。   The received sentence data is sent from the communication unit 23 to the text database 26. The text database 26 records sentence data input under the control of the MPU 31 together with the corresponding theme name.

テキストデータベース26には、テーマ名を単位とするセンテンスと情感データとがセットにされたセンテンスデータが、通常の場合、複数記録されている。   In the text database 26, in a normal case, a plurality of sentence data in which sentences and emotion data in units of theme names are set is recorded.

ここで、使用者がカメラ10の所定の操作部材を操作して、所望のテーマ名を選択したものとする。   Here, it is assumed that the user operates a predetermined operation member of the camera 10 and selects a desired theme name.

その指示信号を受けてMPU31は、画像選択部28を制御して、使用者が選択したテーマ名に対応するセンテンスに適切な情感を表す画像を選択する処理をおこなう。この場合において、画像選択部28は、記録媒体20に記録済みの全ての画像データまたは指定範囲の画像データを対象として画像選択処理をおこなうことになる。つまり、画像選択部28は、例えば、予め記録媒体20に記録されている複数の画像の中から所定の画像を選択することになる。   In response to the instruction signal, the MPU 31 controls the image selection unit 28 to perform processing for selecting an image representing a feeling appropriate for the sentence corresponding to the theme name selected by the user. In this case, the image selection unit 28 performs image selection processing on all image data recorded on the recording medium 20 or image data in a specified range. That is, for example, the image selection unit 28 selects a predetermined image from a plurality of images recorded in advance on the recording medium 20.

画像選択部28による画像選択処理は、具体的には、次のような処理の流れである。   Specifically, the image selection processing by the image selection unit 28 is the following processing flow.

即ち、使用者の選択したテーマ名に対応するセンテンスが、例えば「人生楽あれば」と「苦あり」という二つのセンテンスである場合、画像選択部28は、まず最初に、「人生楽あれば」というセンテンスに適切な情感を表す画像を選択する処理をおこなう。   That is, when the sentences corresponding to the theme name selected by the user are, for example, two sentences of “if life is easy” and “if there is pain”, the image selection unit 28 first selects “if life is easy”. The process of selecting an image that represents a feeling appropriate for the sentence “is performed.

つまり、画像選択部28は、記録媒体20に記録済みの全ての画像データまたは指定範囲の画像データを対象として検索をおこない、画像データに付随する関連情報に喜怒哀楽の情感データ(数値データ;表1参照)を持つ画像データの中から、「喜」,「楽」の情感データを持つ画像データを選択する。   That is, the image selection unit 28 performs a search for all image data recorded in the recording medium 20 or image data in a specified range, and emotion related data (numerical data; Image data having emotion data of “joy” and “easy” is selected from the image data having (see Table 1).

続いて、画像選択部28は、同様に記録媒体20の検索対象画像データから「苦あり」というセンテンスに適切な情感、即ち「怒」,「哀」の情感データを持つ画像データを選択する。   Subsequently, the image selection unit 28 similarly selects image data having emotions appropriate for the sentence “having pain”, that is, emotion data of “anger” and “sorrow” from the search target image data of the recording medium 20.

なお、画像選択部28は、センテンスに対応する情感データが予め添付されている場合には、画像選択をおこなうのに際しては、その情感データを利用する。一方、センテンスに情感データが予め添付されていない場合もある。この場合には、MPU31は、まず情感判定部27を制御して、そのセンテンスの情感を判定し、対応する情感データをセンテンスデータに付与した後、画像選択部28による画像選択処理をおこなうように制御する。   In addition, when emotion data corresponding to a sentence is attached in advance, the image selection unit 28 uses the emotion data when performing image selection. On the other hand, emotion data may not be attached to a sentence in advance. In this case, the MPU 31 first controls the emotion determination unit 27 to determine the emotion of the sentence, adds the corresponding emotion data to the sentence data, and then performs image selection processing by the image selection unit 28. Control.

ただし、情感データが添付されていないセンテンスデータは、情感判定部27によって常に確実明快に情感を判定することができるとは限らない。   However, the sentence data to which no emotion data is attached cannot always be surely and clearly determined by the emotion determination unit 27.

具体的な例を挙げて説明すると、情感判定部27によって情感を判定するのに際して、例えば、「悲しいことがあった」,「泣きっ面に蜂とはこのことだ」という2つのセンテンスの組み合わせについて考えた場合、それぞれのセンテンスの情感を単独で判定すると、いずれも同じような情感であると判定されることになる。しかしながら、後者(「泣きっ面に蜂とはこのことだ」)のセンテンスに対応して選択されるべき画像としては、前者(「悲しいことがあった」)のセンテンスに対応して選択されるべき画像より以上に悲しげな画像、より具体的には、喜怒哀楽における「哀」を表すような画像が選択されることが望ましいと考えられる。つまり、同じ「悲」に分類されるセンテンスのうちでも、その「悲」の度合いには、違いがあるということを考慮する必要がある。   For example, when the emotion determination unit 27 determines an emotion, a combination of two sentences, for example, “There was a sad thing” and “This is a bee on a crying face”. When the feeling of each sentence is determined independently, it is determined that the feelings are the same. However, the image that should be selected in response to the latter sentence ("This is what a bee means when you cry") is selected in accordance with the former sentence ("I was sad"). It is considered desirable to select an image that is more sad than the power image, more specifically, an image that represents “sorrow” in emotions. In other words, it is necessary to consider that there is a difference in the degree of "sadness" among sentences classified as the same "sadness".

そこで、本実施形態におけるカメラ10の画像選択部28は、上述のような場合をも考慮して、それぞれのセンテンス毎に対応する画像を個別に選択するだけでなく、複数のセンテンス間の差異や変化等を考慮した選択がなされるような処理がおこなわれるようになっている。   Therefore, the image selection unit 28 of the camera 10 in the present embodiment not only individually selects an image corresponding to each sentence in consideration of the above-described case, but also includes differences between a plurality of sentences, Processing is performed such that selection is made taking into account changes and the like.

また、テキストデータベース26に記録されるデータとしては、上述したように通信部23の通信機能を利用して外部サーバー100から取得する場合の例を説明しているが、これに限るものではない。本カメラ10のテキストデータベース26にセンテンスデータ等を記録する手段としては、このほかにも、例えば記録媒体20を介してテキストデータベース26へと記録するようにしたり、カメラ10とPC40とを、通信ネットワーク50を介してもしくは接続ケーブル等による直接接続によって通信をおこなって、PC40に蓄えられた同様のセンテンスデータ等をカメラ10のテキストデータベース26へと記録するようにしてもよい。   Further, the data recorded in the text database 26 has been described as an example in which the data is acquired from the external server 100 using the communication function of the communication unit 23 as described above, but is not limited thereto. As other means for recording sentence data or the like in the text database 26 of the camera 10, for example, the sentence data may be recorded in the text database 26 via the recording medium 20, or the camera 10 and the PC 40 may be connected to a communication network. Communication may be performed via the direct connection via the connection cable or the like, and similar sentence data stored in the PC 40 may be recorded in the text database 26 of the camera 10.

次に、本実施形態の画像表示システムにおけるカメラ制御の流れを、図2のフローチャートを用いて以下に詳述する。   Next, the flow of camera control in the image display system of the present embodiment will be described in detail below using the flowchart of FIG.

まず、本カメラ10が電源オフ状態にある場合において、使用者によって本カメラ10の操作部材のうち電源スイッチのオン操作がなされると操作SW33より電源オン信号が生じ、同信号はMPU31へと出力される。これを受けてMPU31は、本カメラ10の内部回路を電源オン状態として所定の制御を開始する。これにより、本カメラ10は起動する。   First, when the camera 10 is in a power-off state, when the user turns on a power switch among the operation members of the camera 10, a power-on signal is generated from the operation SW 33 and the signal is output to the MPU 31. Is done. In response to this, the MPU 31 turns on the internal circuit of the camera 10 and starts predetermined control. As a result, the camera 10 is activated.

この状態において、図2のステップS1において、MPU31は、本カメラ10の動作モードが撮影モードに設定されているか否かの確認をおこなう。ここで、撮影モードに設定されていることが確認された場合には、ステップS2の処理に進む。また、撮影モード以外の動作モードに設定されていることが確認された場合には、ステップS12の処理に進む。   In this state, in step S1 of FIG. 2, the MPU 31 checks whether the operation mode of the camera 10 is set to the shooting mode. If it is confirmed that the shooting mode is set, the process proceeds to step S2. If it is confirmed that an operation mode other than the shooting mode is set, the process proceeds to step S12.

ステップS2において、MPU31はモニタ画像表示処理を実行する。このモニタ画像表示処理は、次のような一連の処理である。即ち、MPU31は、撮像素子15,AFE部16,画像処理部17,表示制御部21,表示部22等を制御して、撮像素子15の出力信号に基いて表示用の画像信号を生成し、その画像信号によって表される画像を表示部22に連続的に表示し続ける処理である。このように、本カメラ10が撮影モードに設定されており、表示部22に画像が連続的に表示されている状態を撮影待機状態という。このモニタ画像表示処理自体は、通常のデジタルカメラにおいて一般的におこなわれる処理である。   In step S2, the MPU 31 executes monitor image display processing. This monitor image display process is a series of processes as follows. That is, the MPU 31 controls the image sensor 15, the AFE unit 16, the image processing unit 17, the display control unit 21, the display unit 22, and the like to generate an image signal for display based on the output signal of the image sensor 15, In this process, the image represented by the image signal is continuously displayed on the display unit 22. As described above, a state in which the camera 10 is set to the photographing mode and images are continuously displayed on the display unit 22 is referred to as a photographing standby state. This monitor image display process itself is a process generally performed in a normal digital camera.

次いで、ステップS3において、MPU31は撮影動作処理を実行する。この撮影動作処理は、使用者による所定の操作部材、例えばシャッターボタンの操作によって生じる撮影指示信号を受けて開始される。つまり、カメラ10が撮影待機状態にあるとき、MPU31は、操作SW33の状態を監視し撮影指示信号を検出すると、撮影動作処理を実行する。撮影動作処理は、次のような一連の処理である。即ち、MPU31は、撮影指示信号を受けると、光量調整部13,光量制御部14等を制御してオートフォーカス動作や自動露出制御動作をおこなった後、撮像素子15の出力信号を取得し、AFE部16,画像処理部17において所定の画像処理を施して得られた画像信号を内部メモリ(特に図示していないが例えば画像処理部17内に設けられていたり、別途カメラ10の内部に設けられる一時メモリ)に一時的に記録する処理である。   Next, in step S3, the MPU 31 executes photographing operation processing. This photographing operation process is started in response to a photographing instruction signal generated by a user's operation of a predetermined operation member, for example, a shutter button. That is, when the camera 10 is in the shooting standby state, the MPU 31 executes the shooting operation process when the state of the operation SW 33 is monitored and a shooting instruction signal is detected. The photographing operation process is a series of processes as follows. In other words, upon receiving the photographing instruction signal, the MPU 31 controls the light amount adjusting unit 13, the light amount control unit 14 and the like to perform an autofocus operation and an automatic exposure control operation, and then obtains an output signal of the image sensor 15 and AFE. The image signal obtained by performing predetermined image processing in the unit 16 and the image processing unit 17 is provided in an internal memory (not shown in the figure, for example, in the image processing unit 17 or separately in the camera 10. (Temporary memory) is temporarily recorded.

続いて、ステップS4以降の各処理において、MPU31は、上述のステップS3の処理にて取得した画像信号に基づいて各種の信号処理を実行する。   Subsequently, in each process after step S4, the MPU 31 executes various signal processes based on the image signal acquired in the process of step S3 described above.

まず、ステップS4において、MPU31は画像処理部17の顔検出部17aを制御して、上述のステップS3の処理にて取得した画像信号を対象として、その画像陣号により表される画像中の人間の顔のある領域(以下、顔画像領域という)を検出する顔検出処理を実行する。   First, in step S4, the MPU 31 controls the face detection unit 17a of the image processing unit 17 to target the image signal acquired in the processing of step S3 described above, and the human in the image represented by the image number. A face detection process for detecting an area having a face (hereinafter referred to as a face image area) is executed.

ステップS5において、MPU31は笑顔度検出処理を実行する。この笑顔度検出処理は、上述のステップS4の処理にて検出した顔画像領域に基いて、顔の表情(笑顔データR値)を検出する処理である。なお、この笑顔度検出処理の詳細については、図3,図4を用いて後述する。   In step S5, the MPU 31 executes smile level detection processing. This smile degree detection process is a process for detecting a facial expression (smile data R value) based on the face image area detected in step S4. Details of this smile level detection process will be described later with reference to FIGS.

ステップS6において、MPU31は、上述のステップS4の処理にて検出した顔画像領域に基いて顔の向きを検出する処理を実行する。   In step S6, the MPU 31 executes a process of detecting the face orientation based on the face image area detected in the process of step S4 described above.

ステップS7において、MPU31は、上述のステップS3の処理にて取得した画像信号に基いてその画像中に写っている人間の数を検出する処理をおこなう。例えば、上述のステップS4の処理にて検出した顔画像領域の数の検出をおこなう。   In step S7, the MPU 31 performs a process of detecting the number of people in the image based on the image signal acquired in the process of step S3. For example, the number of face image areas detected in the process of step S4 described above is detected.

ステップS8において、MPU31は、上述のステップS4の処理にて検出した顔画像領域に基いて顔の大きさを検出する処理を実行する。   In step S8, the MPU 31 executes processing for detecting the size of the face based on the face image area detected in the processing in step S4 described above.

ステップS9において、MPU31は、上述のステップS3の処理にて取得した画像信号に基いてその画像の中の色や明るさ等の画像の特徴を判定する処理を実行する。   In step S9, the MPU 31 executes a process of determining image characteristics such as color and brightness in the image based on the image signal acquired in the process of step S3.

そして、ステップS10において、MPU10は、圧縮伸長部18,記録再生部19,記録媒体20等を制御して、上述のステップS3の処理にて取得した画像信号を記録用の画像データとして記録媒体20に記録する。   In step S10, the MPU 10 controls the compression / decompression unit 18, the recording / reproducing unit 19, the recording medium 20, and the like, and the recording medium 20 uses the image signal acquired in the processing in step S3 as recording image data. To record.

この場合において、MPU31は、上述のステップS4〜S9の処理にて取得した各種の情報、即ち画像中の顔の有無情報,笑顔データR値,画像中の人間の数情報,顔の大きさ情報,その他の画像の特徴を示す情報等を、記録用の画像データに関連付ける処理処理を同時におこなう。この関連付け処理としては、例えば、記録用の画像データのヘッダ部等に上記各種情報を書き込んで、一つの画像データとして記録する形態としてもよいし、記録用の画像データとこれに付随する情報とを別個のデータとして構成し、対応する一対のデータファイルとして関連付けて記録するようにしてもよい。このような記録処理が終了したら、次のステップS11の処理に進む。   In this case, the MPU 31 obtains various types of information acquired by the processes in steps S4 to S9 described above, that is, the presence / absence information of the face in the image, the smile data R value, the number information of people in the image, and the size information of the face. , Processing for associating information indicating the characteristics of other images with image data for recording is performed simultaneously. As this association processing, for example, the above-mentioned various information may be written in the header portion of the recording image data and recorded as one image data, or the recording image data and the accompanying information may be recorded. May be configured as separate data and recorded in association with a corresponding pair of data files. When such a recording process is completed, the process proceeds to the next step S11.

ステップS11において、MPU31は操作SW33を監視して終了指示信号が発生したか否かの確認をおこなう。ここで、終了指示信号が確認された場合には、一連の処理を終了する(エンド)。また、終了指示信号が確認されない場合には、上述のステップS1の処理に戻り、次の撮影動作のための以降の処理を繰り返す。   In step S11, the MPU 31 monitors the operation SW 33 to confirm whether or not an end instruction signal has been generated. Here, when the end instruction signal is confirmed, a series of processing ends (end). If the end instruction signal is not confirmed, the process returns to the above-described step S1, and the subsequent processes for the next photographing operation are repeated.

ここで、図2のステップS5の処理、即ち笑顔度検出処理の詳細について、図3,図4を用いて以下に説明する。   Here, the details of the process of step S5 in FIG. 2, that is, the smile level detection process will be described below with reference to FIGS.

図3は、本実施形態のカメラにおいて実行される笑顔度検出処理を説明する図である。このうち、図3(A)は笑顔の表示を例示する図である。図3(B)は困った顔の表情を例示する図である。   FIG. 3 is a diagram for explaining smile level detection processing executed in the camera of the present embodiment. Among these, FIG. 3A is a diagram illustrating a display of a smile. FIG. 3B is a diagram illustrating an expression of a troubled face.

図4は、本実施形態のカメラにおいて実行される笑顔度検出処理(図2のステップS5の処理)のサブルーチンを示すフローチャートである。   FIG. 4 is a flowchart showing a subroutine of smile level detection processing (step S5 in FIG. 2) executed in the camera of this embodiment.

本実施形態のカメラにおいて実行される笑顔度検出処理によって検出される笑顔データR値は、後述する合成モード処理の際におこなう表情判定処理の際に使用される数値データである。この笑顔データR値は、顔画像領域において表示される顔画像の表情(笑顔度)を数値化して表すものである。そして、笑顔データR値は、上述したようにMPU31の制御下において表情判定及び感情類推部25によって判定され数値化のための演算処理がなされた結果、算出される数値データである。   The smile data R value detected by the smile degree detection process executed in the camera of the present embodiment is numerical data used in the facial expression determination process performed in the synthesis mode process described later. This smile data R value represents the expression (smile level) of the face image displayed in the face image area in numerical form. The smile data R value is numerical data calculated as a result of the arithmetic processing for digitization determined by the facial expression determination and emotion analogy estimation unit 25 under the control of the MPU 31 as described above.

なお、笑顔データR値は、数値が多いほど笑顔度が高いことを表すものとする。また、笑顔データR値の具体的な数値としては、例えば0から10の範囲の数値を採用するものとする。したがって、完全なる笑顔を表す笑顔データはR=10である。なお、笑顔データR値を表す数値自体は、整数のみでも可であるが、小数点以下の数値も適用可能である。   Note that the smile data R value represents that the smile value is higher as the numerical value is larger. Further, as a specific numerical value of the smile data R value, for example, a numerical value in the range of 0 to 10 is adopted. Therefore, the smile data representing a complete smile is R = 10. The numerical value representing the smile data R value itself can be an integer only, but a numerical value after the decimal point is also applicable.

一般に、人間の顔の表情において、図3(A)に示すような笑顔の表情場合と、図3(B)に示すような困った顔の表情の場合とでは、人間の顔を構成するパーツのうち眼と口元とにそれぞれ顕著な特徴が存在することが明らかである。   In general, in the facial expression of a human face, the parts constituting the human face in the case of a smiling facial expression as shown in FIG. 3A and in the case of a troubled facial expression as shown in FIG. It is clear that there are distinctive features in the eyes and mouth.

ここで、図4の笑顔データR値を算出する笑顔度検出処理(図2のステップS5の処理)のサブルーチンを用いて、処理の流れを説明する。   Here, the flow of processing will be described using the subroutine of smile level detection processing (step S5 in FIG. 2) for calculating the smile data R value in FIG.

まず、図4のステップS21において、MPU31は、上述の図2のステップS4の処理による顔検出処理の結果、即ち顔画像領域の部分画像データに基づいて眼と口の部分の検出処理を開始する。   First, in step S21 of FIG. 4, the MPU 31 starts detection processing of the eye and mouth part based on the result of the face detection process by the process of step S4 of FIG. 2, that is, the partial image data of the face image area. .

まず、ステップS22,S23において、MPU31の制御下で表情判定及び感情類推部25は、白眼の面積を測定する。   First, in steps S22 and S23, the facial expression determination and emotion analogy unit 25 measures the area of white eyes under the control of the MPU 31.

具体的には、ステップS22において、両眼の瞳の中心を結ぶ線Gより上側の白眼面積EAを測定し、ステップS23において、両眼の瞳の中心を結ぶ線Gより下側の白眼面積EBを測定する。   Specifically, in step S22, the white eye area EA above the line G connecting the centers of the eyes of both eyes is measured. In step S23, the white eye area EB below the line G connecting the centers of the eyes of both eyes is measured. Measure.

続いて、ステップS24において、表情判定及び感情類推部25は、上述のステップS22,S23の各処理にて得られた白眼面積EA,EBの差を、これらの和で正規化して数値REを得る。即ち、
RE←(EA−EB)/(EA+EB)
図3(A),図3(B)のそれぞれに示す表情の例において、眼に着目して両者を比較してみると、両眼の瞳の中心を結ぶ線Gより上側の白眼部分が、笑顔の表情ほど多いことが分かる。
Subsequently, in step S24, the facial expression determination and emotion analogy unit 25 normalizes the difference between the white eye areas EA and EB obtained in the processes in steps S22 and S23 described above, and obtains a numerical value RE. . That is,
RE ← (EA-EB) / (EA + EB)
In the example of facial expressions shown in FIG. 3A and FIG. 3B, when comparing both focusing on eyes, the white-eye portion above the line G connecting the centers of the eyes of both eyes is You can see that there are more smiles.

したがって、上述のステップS24の処理にて得られた数値REが大きいほど笑顔であると判定されることになる。   Therefore, the larger the numerical value RE obtained in the process of step S24 described above, the greater the smile.

次に、ステップS25,S26において、表情判定及び感情類推部25は、唇の面積を測定する。   Next, in steps S25 and S26, the facial expression determination and emotion analogy unit 25 measures the area of the lips.

具体的には、ステップS25において、口の両端を結ぶ線Hより上側にある唇面積LAを測定し、ステップS26において、口の両端を結ぶ線Hより下側にある唇面積LBを測定する。   Specifically, in step S25, the lip area LA above the line H connecting both ends of the mouth is measured, and in step S26, the lip area LB below the line H connecting both ends of the mouth is measured.

続いて、ステップS27において、表情判定及び感情類推部25は、上述のステップS25,S26の各処理にて得られた唇面積LA,LBの差を、これらの和で正規化して数値RLを得る。即ち、
RL←(LA−LB)/(LA+LB)
図3(A),図3(B)のそれぞれに示す表情の例において、口に着目して両者を比較してみると、口の両端を結ぶ線Hより上側にある唇部分が、笑顔の表情ほど多いことが分かる。
Subsequently, in step S27, the facial expression determination and emotion analogy unit 25 normalizes the difference between the lip areas LA and LB obtained by the processes in steps S25 and S26 described above, and obtains a numerical value RL. . That is,
RL ← (LA-LB) / (LA + LB)
In the example of facial expressions shown in FIGS. 3 (A) and 3 (B), when comparing the two with attention to the mouth, the lip portion above the line H connecting both ends of the mouth is smiling. You can see that there are more facial expressions.

したがって、上述のステップS27の処理にて得られた数値RLが大きいほど笑顔であると判定されることになる。   Therefore, the larger the numerical value RL obtained in the process of step S27 described above, the greater the smile.

次に、ステップS28において、表情判定及び感情類推部25は、上述のステップS24の処理で得られた眼のRE値と、上述のステップS27の処理で得られた口のRL値とを加算して笑顔データR値を算出する。即ち、
R←RE+RL
この場合において、笑顔データR値が大きいほど笑顔に近いことになる。
Next, in step S28, the facial expression determination and emotion analogy unit 25 adds the eye RE value obtained by the process of step S24 described above and the RL value of the mouth obtained by the process of step S27 described above. To calculate the smile data R value. That is,
R ← RE + RL
In this case, the larger the smile data R value, the closer to the smile.

さらに、ステップS29において、表情判定及び感情類推部25は、顔画像領域の口部分に着目して、歯が見えてかつ口端部分に影が有るか否かの確認をおこなう。ここで、歯が見えてかつ口端部分に影が有ることが確認されると、ステップS30の処理に進む。   Further, in step S29, the facial expression determination and emotion analogy unit 25 pays attention to the mouth portion of the face image area and confirms whether the teeth are visible and the mouth end portion has a shadow. Here, if it is confirmed that the teeth are visible and the mouth end portion has a shadow, the process proceeds to step S30.

例えば、図3(A)の表情においては、歯が見えており、かつ図3(A)の矢印Jで示される領域において口の端部に影がある。このような条件となるとき、笑顔の表情となっている確率が高いと考えられる。   For example, in the facial expression of FIG. 3A, teeth are visible and there is a shadow at the edge of the mouth in the region indicated by arrow J in FIG. When such a condition is met, it is considered that there is a high probability of having a smiling expression.

そこで、このステップS29において、上記条件(歯が見えてかつ口端部分に影が有る)を満たして、ステップS30の処理に進むと、このステップS30において、表情判定及び感情類推部25は、笑顔データR値に1を加算する処理をおこなう。即ち、
R←R+1
そして、ステップS31の処理に進む。
Therefore, in step S29, when the above condition (the teeth are visible and the mouth end has a shadow) is satisfied and the process proceeds to step S30, the facial expression determination and emotion analogy unit 25 smiles in this step S30. A process of adding 1 to the data R value is performed. That is,
R ← R + 1
Then, the process proceeds to step S31.

また、上述のステップS29において、上記条件(歯が見えてかつ口端部分に影が有る)を満たさない場合には、ステップS31の処理に進む。   In step S29 described above, if the above condition (the teeth are visible and the mouth end portion has a shadow) is not satisfied, the process proceeds to step S31.

一方、例えば眉間部分にしわがあるような表情は笑顔とは言えない。例えば、図3(B)の表情においては、図3(B)の矢印Kで示される領域において両眼の間に皺があるような場合は、笑顔の表情ではない確率が高くなる。   On the other hand, for example, a facial expression with wrinkles in the area between the eyebrows is not a smile. For example, in the facial expression of FIG. 3B, if there is a wrinkle between both eyes in the region indicated by the arrow K in FIG. 3B, the probability that the facial expression is not a smile is high.

そこで、 ステップS31において、表情判定及び感情類推部25は、顔画像領域の眉間部分に着目して、眉間に皺が有るか否かの確認をおこなう。ここで、眉間に皺が有ることが確認されると、ステップS32の処理に進む。   Therefore, in step S31, the facial expression determination and emotion analogy unit 25 pays attention to the portion between the eyebrows of the face image area and checks whether or not there is a wrinkle between the eyebrows. Here, if it is confirmed that there is a wrinkle between the eyebrows, the process proceeds to step S32.

ステップS32において、表情判定及び感情類推部25は、笑顔データR値から1を減算する処理をおこなう。即ち、
R←R−1
こうして笑顔データR値が確定された後、一連の処理を終了し、上述の図2の元の処理に戻る(リターン)。
In step S32, the facial expression determination and emotion analogy unit 25 performs a process of subtracting 1 from the smile data R value. That is,
R ← R-1
After the smile data R value is determined in this way, the series of processing ends, and the processing returns to the original processing in FIG. 2 described above (return).

また、上述のステップS31の処理において、眉間に皺がないことが確認された場合には、その時点の笑顔データR値が確定されて、一連の処理を終了し、上述の図2の元の処理に戻る(リターン)。   If it is confirmed that there is no wrinkle between the eyebrows in the process of step S31, the smile data R value at that time is determined, the series of processes is terminated, and the original process of FIG. Return to processing (return).

以上説明した笑顔度検出処理によって、笑顔度を数値化した笑顔データR値が算出される。この笑顔データR値が高得点であるほど笑顔に近い(笑顔度が高い)ことを表すことになる。   The smile data R value obtained by quantifying the smile level is calculated by the smile level detection process described above. The higher the smile data R value, the closer to the smile (the higher the smile level).

上述の笑顔度検出処理によって得られた笑顔データR値は、情感(例えば喜怒哀楽)に対応させる。   The smile data R value obtained by the smile level detection process described above corresponds to emotion (for example, emotion).

例えば、笑顔データR値が高い画像の場合、情感としては「喜」,「楽」等の情感に対応する一方、笑顔データR値の低い画像の場合は、「怒」,「哀」等の情感に対応することになる。   For example, in the case of an image having a high smile data R value, the emotion corresponds to emotions such as “joy” and “easy”, while in the case of an image having a low smile data R value, “anger”, “sorrow”, etc. It corresponds to feelings.

また、「喜」と「楽」とでは、前者の方が笑顔データR値の高い画像が採用され、後者は笑顔データR値が比較的低い画像が採用される。   For “joy” and “easy”, an image with a higher smile data R value is used for the former, and an image with a relatively lower smile data R value is used for the latter.

さらに、例えば、眼を瞑っていてかつ口元が笑っているような画像の場合には、「楽」の情感を対応させてもよい。   Further, for example, in the case of an image where the eyes are meditated and the mouth is laughing, the feeling of “easy” may be made to correspond.

一方、「怒」は、「哀」よりも笑顔データR値の低い画像に対応させるという判定としてもよいが、さらに眉間の皺についての条件を加えて判定することで「怒」であるか否かを判定の分岐としてもよい。また、眼の下の涙についての条件を加えて、これを検出すると「哀」の判定に分岐するような流れを追加するようにしてもよい。   On the other hand, “angry” may be determined to correspond to an image having a smile data R value lower than “sorrow”, but whether or not it is “angry” by determining by adding a condition regarding the eyelid between the eyebrows. This may be a decision branch. Further, a condition for tears under the eyes may be added, and a flow that branches to the determination of “sorrow” when this is detected may be added.

なお、表情だけで喜怒哀楽を判定する必要は、必ずしもなく、例えば顔の角度や向きを判定し、顔の向きが上向きの画像の場合には、「喜」,「楽」に分類する一方、顔のむきが下向きであったり後ろ向きである画像の場合には、「哀」,「怒」に分類するような判定としてもよい。   Note that it is not always necessary to judge emotions based only on facial expressions. For example, when the face angle or orientation is judged and the face orientation is an upward image, it is classified as “joy” or “easy”. In the case of an image in which the face is facing downward or backward, it may be determined to be classified as “sorrow” or “anger”.

したがって、以上のことを考慮すると、笑顔度の検出と情感との対応付けは、顔の表情や仕草の他に、画像中の人間の数の多い少ないを考慮したり、画像の面積に対する顔の大きさ等をも考慮して、情感に対応付けることが好ましいのであるが、本実施形態においては、説明が複雑になるのをさけるために、情感については「喜怒哀楽」のみを基本概念として、以下の説明を続けることにする。   Therefore, in consideration of the above, the detection of the smile level and the correspondence between the emotions and the facial expressions and gestures, in addition to the large number of people in the image, In consideration of the size and the like, it is preferable to associate with emotions, but in this embodiment, in order to avoid complicated explanations, only emotions are expressed as a basic concept for emotions. The following explanation will be continued.

したがって、画像中の人間の顔が大きい場合には、どちらかと言うと「喜」,「怒」に分類し、画像中の人間の顔が小さい場合には、「哀」等に分類するものとする。   Therefore, when the human face in the image is large, it is classified as “joy” or “anger”, and when the human face in the image is small, it is classified as “sorrow” or the like. To do.

また、画像中の人間の数については、顔検出機能を用いて容易に判定し得ることであるので、数が多いほど「喜」,「楽」に分類され、数が少ないほど「怒」,「哀」に分類するものとする。   In addition, the number of people in the image can be easily determined using the face detection function. Therefore, the larger the number, the more “classified” as “joy” and “easy”, and the smaller the number, “angry”, It shall be classified as “sorrow”.

図2のフローチャートに戻って、上述のステップS1の処理において、撮影モード以外の動作モードに設定されていることが確認された場合には、上述したようにステップS12の処理に進む。   Returning to the flowchart of FIG. 2, when it is confirmed in the process of step S <b> 1 that an operation mode other than the shooting mode is set, the process proceeds to step S <b> 12 as described above.

この場合には、ステップS12において、MPU31は、本カメラ10の動作モードが合成モードに設定されているか否かの確認をおこなう。ここで、合成モードに設定されていることが確認された場合には、ステップS13の処理、即ち合成モード処理に進む。一方、合成モードに設定されていないことが確認された場合には、ステップS14の処理に進む。   In this case, in step S12, the MPU 31 checks whether or not the operation mode of the camera 10 is set to the composition mode. If it is confirmed that the composition mode is set, the process proceeds to step S13, that is, composition mode processing. On the other hand, if it is confirmed that the composition mode is not set, the process proceeds to step S14.

ここで、合成モードとは、テーマと画像範囲を指定して、指定された範囲の画像からテキストのセンテンスに適した画像を自動的に選択し、選択された画像にテキストのセンテンスを合成する処理である。   Here, compositing mode is a process that specifies a theme and an image range, automatically selects an image suitable for the text sentence from the image in the specified range, and combines the text sentence with the selected image. It is.

この合成モードを実行する合成モード処理(図2のステップS13の処理)の詳細について、図5を用いて以下に説明する。   Details of the synthesis mode process for executing this synthesis mode (the process in step S13 in FIG. 2) will be described below with reference to FIG.

図5は、本実施形態のカメラにおいて実行される合成モード処理(図2のステップS13の処理)のサブルーチンを示すフローチャートである。   FIG. 5 is a flowchart showing a subroutine of the synthesis mode process (the process of step S13 in FIG. 2) executed in the camera of the present embodiment.

まず、上述の図2のステップS12の処理において、合成モードに設定されていることが確認されて、図2のステップS13の処理に進むと、このステップS12において、MPU31は合成モード処理(図5のサブルーチン)を開始させる制御をおこなう。一方、合成モードに設定されていないことが確認された場合には、ステップS14の処理に進む(後述する)。   First, in the process of step S12 of FIG. 2 described above, it is confirmed that the synthesis mode is set, and when the process proceeds to the process of step S13 of FIG. 2, the MPU 31 performs the synthesis mode process (FIG. 5). Control to start the subroutine. On the other hand, if it is confirmed that the composition mode is not set, the process proceeds to step S14 (described later).

こうして合成モード処理が開始されると、まず、MPU31は、表示制御部21等を制御して表示部22等に、本カメラ10が合成モード処理の実行中である旨の表示や、記録媒体20に記録済みの画像データに基づく所定の画像を再生表示させる。同時に、MPU31は、操作SW33の監視を開始する。そして、使用者の操作を待機する状態になる。   When the synthesis mode process is started in this way, first, the MPU 31 controls the display control unit 21 and the like to display on the display unit 22 and the like that the camera 10 is executing the synthesis mode process, and the recording medium 20. A predetermined image based on the recorded image data is reproduced and displayed. At the same time, the MPU 31 starts monitoring the operation SW 33. And it will be in the state which waits for a user's operation.

ここで、使用者は所定の操作部材を用いて、選択画像の範囲を指定する操作をおこなう。この操作は、例えば表示部22に表示されるサムネイル画面に基いて、選択範囲の始点画像と終点画像を指定する操作をおこなう等である。この操作により、操作SW33からは、所定の選択画像範囲指定の指示信号が発生する。   Here, the user performs an operation of specifying the range of the selected image using a predetermined operation member. This operation is, for example, an operation of designating the start point image and the end point image of the selection range based on the thumbnail screen displayed on the display unit 22. By this operation, an instruction signal for designating a predetermined selected image range is generated from the operation SW 33.

この指示信号を受けて、MPU31は、図5のステップS41において、当該指示信号に基づく選択画像範囲指定処理をおこなう。   Upon receiving this instruction signal, the MPU 31 performs a selection image range designation process based on the instruction signal in step S41 of FIG.

次に、ステップS42において、MPU31は、テキストデータベース26,表示制御部21,表示部22等を制御して、テキストデータベース26に現在記録されているテーマ名情報等の一覧を表示部22に表示させ、同時に再度操作SW33の監視をおこなって選択操作を待機する状態となる。   Next, in step S42, the MPU 31 controls the text database 26, the display control unit 21, the display unit 22 and the like to display a list of theme name information and the like currently recorded in the text database 26 on the display unit 22. At the same time, the operation SW 33 is again monitored and the selection operation is waited.

ここで、使用者は所定の操作部材を用いて、表示部22に表示される複数のテーマ名情報のうち所望のテーマ名を選択する操作をおこなう。   Here, the user uses a predetermined operation member to perform an operation of selecting a desired theme name from among a plurality of theme name information displayed on the display unit 22.

続いて、ステップS43において、MPU31は、テーマ選択指示信号が生じているか否かの確認をおこなう。ここで、テーマ選択指示信号が確認された場合には、次のステップS44の処理に進む。また、テーマ選択指示信号が確認されない場合には、ステップS42の処理に戻って、以降の処理を繰り返す。つまり、テーマ名選択操作がなされるまで、処理ループを実行する。   Subsequently, in step S43, the MPU 31 checks whether a theme selection instruction signal is generated. If the theme selection instruction signal is confirmed, the process proceeds to the next step S44. If the theme selection instruction signal is not confirmed, the process returns to step S42 and the subsequent processes are repeated. That is, the processing loop is executed until a theme name selection operation is performed.

続いて、ステップS44において、MPU31は、上述のステップS43で選択されたテーマ名に含まれるセンテンスデータに情感データが添付されているか否かの確認をおこなう。ここで、選択されたテーマ名に含まれるセンテンスデータに情感データが添付されていることが確認された場合には、次のステップS45の処理に進む。一方、選択されたテーマ名に含まれるセンテンスデータに情感データが添付されていないことが確認された場合には、ステップS46の処理に進む。   Subsequently, in step S44, the MPU 31 checks whether emotion data is attached to the sentence data included in the theme name selected in step S43. If it is confirmed that emotion data is attached to the sentence data included in the selected theme name, the process proceeds to the next step S45. On the other hand, if it is confirmed that no emotion data is attached to the sentence data included in the selected theme name, the process proceeds to step S46.

ステップS45において、MPU31は、選択されたテーマ名に含まれるセンテンスデータに添付される情感データに対応する画像を選択する画像選択処理を実行する。   In step S45, the MPU 31 executes an image selection process for selecting an image corresponding to the emotion data attached to the sentence data included in the selected theme name.

ここで、上記ステップS45の処理、即ち情感データが添付されている場合の画像選択処理について、表1,表2及び図6〜図8等を用いて以下に説明する。   Here, the processing in step S45, that is, the image selection processing in the case where emotion data is attached will be described below with reference to Tables 1 and 2 and FIGS.

表1は、使用者によって選択されたテーマ名に含まれる一群のセンテンスの内容と、各センテンスに対応して添付されている情感データ(数値データ)の例を示している。なお、表1で示される一群のセンテンスのテーマ名は、例えば「ビジネスピンチ脱出」としている。   Table 1 shows an example of the contents of a group of sentences included in the theme name selected by the user and emotion data (numerical data) attached corresponding to each sentence. Note that the theme name of a group of sentences shown in Table 1 is, for example, “business pinch escape”.

そして、以下の説明においては、この「ビジネスピンチ脱出」というテーマ名が使用者によって(図5のステップS42−S43の処理で)選択されたものとする。   In the following description, it is assumed that the theme name “business pinch escape” has been selected by the user (in the process of steps S42 to S43 in FIG. 5).

なお、表1のデータでは、情感としての喜怒哀楽のうち「喜・楽」系のセンテンスを高い高い数値の情感データとし、「怒・哀」系のセンテンスを低い数値の情感データとしている。   In the data shown in Table 1, among the emotions of emotions, the emotions of “joy / easy” are high emotion data, and the “anger / sorrow” sentences are low emotion data.

また、表2は、使用者が(図5のステップS41の処理で)指定した選択範囲の画像の画像番号a,b,c,d,e,fと、これらに各対応する笑顔データR値を示すものである。なお、この笑顔データR値は、上述したように、図2のシーケンス中の撮影動作実行中における笑顔検出処理(図2のステップS5の処理、即ち図4の処理)によって画像データに関連付けられて記録されたものである。

Figure 2009141516
Table 2 shows image numbers a, b, c, d, e, and f of the images in the selected range designated by the user (in the process of step S41 in FIG. 5) and smile data R values corresponding to these. Is shown. As described above, this smile data R value is associated with the image data by the smile detection process (the process in step S5 in FIG. 2, ie, the process in FIG. 4) during execution of the photographing operation in the sequence of FIG. It is recorded.
Figure 2009141516

図6は、本実施形態のカメラにおける合成モード処理時において、センテンスの情感データに対応する画像が選択される際に基準となる情感データと笑顔データR値との関係を示す図である。   FIG. 6 is a diagram illustrating a relationship between emotion data serving as a reference and smile data R value when an image corresponding to emotion emotion data is selected during the synthesis mode processing in the camera of the present embodiment.

センテンスの情感データに対応する画像が選択される際には、センテンスに添付される情感データに対応する笑顔データR値を参照することで、対応する画像が選択される。   When an image corresponding to the sentiment data of the sentence is selected, the corresponding image is selected by referring to the smile data R value corresponding to the sentiment data attached to the sentence.

そこで、情感データと笑顔データR値との関係は、図6に示すように、高い数値の情感データに対して高い数値の笑顔データR値が対応し、低い数値の情感データに対して低い数値の笑顔データR値が対応するようにしている。   Therefore, as shown in FIG. 6, the relationship between emotion data and smile data R value corresponds to high numeric smile data R value corresponding to high numeric emotion data and low numeric value to low numeric emotion data. The smile data R values correspond to each other.

これにより、情感データの高い数値の「喜・楽」系のセンテンスに対して笑顔度の高い笑顔データR値を持つ画像、例えば「笑顔」の画像が選択される。また、情感データの低い数値の「怒・哀」系のセンテンスに対して笑顔度の低い笑顔データR値を持つ画像、例えば「眼つぶり」画像や「眉間に皺」のある画像等が選択される。   As a result, an image having a smile data R value with a high smile level, for example, an image of “smile” is selected with respect to a “joy / easy” sentence with a high emotional data value. In addition, an image having a smile data R value with a low smile level, for example, an “eye blink” image or an image with a “brow between the eyebrows” is selected for a “anger / sorrow” sentence with a low emotional data value. The

このように、センテンスの情感データと画像の笑顔データR値との関係を規定することによって、センテンスに対応する表情の画像が選択され、その画像に対応するセンテンスが合成されて表示部22に表示されることになる(詳細は後述)。   In this way, by defining the relationship between the emotional data of the sentence and the smile data R value of the image, the facial expression image corresponding to the sentence is selected, and the sentence corresponding to the sentence is synthesized and displayed on the display unit 22. (Details will be described later).

なお、情感の変化の大きさに合わせて、変化の大きい画像を当てはめるような工夫をしてもよいのはもちろんである。また、情感データや笑顔度の数値化をより細い刻みで設定するようにしてもよい。さらに、低い数値の情感データを「怒」の方向に分類し、これに加えて、涙,眼つぶり等が検出された場合には、「哀」に分類するといった工夫をするといったことも考えられる。   Needless to say, a device that applies an image having a large change according to the magnitude of the change in emotion may be used. Also, the emotional data and the numerical value of the smile level may be set in finer increments. Furthermore, it is possible to classify the low numerical emotion data in the direction of “anger”, and in addition to this, if tears, blinking eyes, etc. are detected, it is possible to categorize as “sorrow”. .

図7は、センテンスと選択画像との関係を表すグラフである。このうち、図7(A)は表1で示す各センテンスの情感データをグラフ化して示している。図中の丸で囲われた数字(丸数字)は表1におけるテキスト番号(1,2,3,4)に対応している。また、図7(B)は、表2で示す笑顔データR値をグラフ化して示している。図中の丸で囲われたアルファベット文字は表2における画像番号(a,b,c,d,r,f)に対応している。   FIG. 7 is a graph showing the relationship between sentences and selected images. Among these, FIG. 7A shows the emotional data of each sentence shown in Table 1 in a graph. The numbers surrounded by circles (circle numbers) in the figure correspond to the text numbers (1, 2, 3, 4) in Table 1. FIG. 7B shows the smile data R values shown in Table 2 in a graph. Alphabet characters surrounded by circles in the figure correspond to image numbers (a, b, c, d, r, f) in Table 2.

そして、図7(A)に示すセンテンスと、図7(B)の画像との対応関係を、テキスト番号と画像番号とを結ぶ線によって示している。   The correspondence between the sentence shown in FIG. 7A and the image shown in FIG. 7B is indicated by a line connecting the text number and the image number.

図8は、本実施形態のカメラにおいて実行される合成モード処理中のサブルーチンであって、情感データが添付されている場合の画像選択処理(図5のステップS45の処理)のサブルーチンを示すフローチャートである。   FIG. 8 is a flowchart showing a subroutine during the synthesis mode processing executed in the camera of the present embodiment, which is a subroutine for image selection processing (processing in step S45 in FIG. 5) when emotion data is attached. is there.

上述したように、図5のステップS44の処理において、上述のステップS43で選択されたテーマ名に含まれるセンテンスデータに情感データが添付されていることが確認されてステップS45の処理に進むと、このステップS45において、MPU31は、主に画像選択部28を制御して画像選択処理を実行する。この場合のサブルーチンが図8のフローチャートである。   As described above, in the process of step S44 of FIG. 5, when it is confirmed that emotion data is attached to the sentence data included in the theme name selected in step S43, the process proceeds to step S45. In step S45, the MPU 31 mainly controls the image selection unit 28 to execute image selection processing. The subroutine in this case is the flowchart of FIG.

まず、図8のステップS61において、MPU31は、テキストデータベース26からセンテンスを読み出し、指定された範囲に含まれる画像数とテーマに含まれるセンテンス数とを比較して、画像数がセンテンス数よりも多いか否かを確認する。ここで、画像数の方が多いことが確認された場合には、ステップS62の処理に進む。   First, in step S61 of FIG. 8, the MPU 31 reads a sentence from the text database 26, compares the number of images included in the designated range with the number of sentences included in the theme, and the number of images is larger than the number of sentences. Check whether or not. If it is confirmed that the number of images is larger, the process proceeds to step S62.

ステップS62において、MPU31の制御下で画像選択部28が、指定範囲の画像の中から、各センテンスの情感データに近い笑顔データR値の画像を順次選択する処理をおこなう。その後、ステップS63の処理に進む。   In step S62, under the control of the MPU 31, the image selection unit 28 performs processing for sequentially selecting images with smile data R values close to the emotional data of each sentence from the images in the specified range. Thereafter, the process proceeds to step S63.

ステップS63において、画像選択部28は、上述のステップS62の処理にて選択された画像をセンテンスの順番に並べ換える処理を実行する。その後、図5の元の処理に戻る(リターン)。そして、図5のステップS56の処理に進む。   In step S63, the image selection unit 28 executes a process of rearranging the images selected in the process of step S62 described above in the order of sentences. Thereafter, the processing returns to the original processing in FIG. 5 (return). Then, the process proceeds to step S56 in FIG.

一方、上述のステップS61の処理において、指定された範囲に含まれる画像数がセンテンス数と同数もしくは画像数がセンテンス数より少ないことが確認された場合には、センテンスの情感データの降順に対応させて画像を笑顔データR値で降順で並べ換える処理を実行する。その後、図5の元の処理に戻る(リターン)。そして、図5のステップS56の処理に進む。   On the other hand, if it is confirmed that the number of images included in the specified range is the same as the number of sentences or the number of images is less than the number of sentences in the processing of step S61 described above, correspondence is performed in descending order of the sentiment data of the sentence. The process of rearranging the images in descending order by the smile data R value is executed. Thereafter, the processing returns to the original processing in FIG. 5 (return). Then, the process proceeds to step S56 in FIG.

図8に示すような手順によって、センテンスデータに情感データが添付されている場合における画像の表示順番が決定される。   According to the procedure shown in FIG. 8, the display order of images when emotion data is attached to sentence data is determined.

図5に戻って、上述のステップS44の処理において、選択されたテーマ名に含まれるセンテンスデータに情感データが添付されていないことが確認された場合にステップS46の処理に進むと、このステップS46において、MPU31の制御下で情感判定部27により選択されたセンテンスデータについての情感判定処理(S47〜S50)が開始される。   Returning to FIG. 5, when it is confirmed in the process of step S44 described above that emotion data is not attached to the sentence data included in the selected theme name, the process proceeds to step S46. The emotion determination process (S47 to S50) for the sentence data selected by the emotion determination unit 27 under the control of the MPU 31 is started.

まず、ステップS47において、MPU31はループカウントN=1を設定する。その後、ステップS48の処理に進む。   First, in step S47, the MPU 31 sets a loop count N = 1. Thereafter, the process proceeds to step S48.

ステップS48において、MPU31は、第N番目のセンテンスの情感判定処理を実行する。その後、ステップS49の処理に進む。   In step S48, the MPU 31 executes the emotion determination process for the Nth sentence. Thereafter, the process proceeds to step S49.

ステップS49において、MPUはループカウントを1つ進める。即ちN=N+1の設定をおこなう。その後、ステップS50の処理に進む。   In step S49, the MPU advances the loop count by one. That is, N = N + 1 is set. Thereafter, the process proceeds to step S50.

ステップS50において、MPUは、情感判定をすべきセンテンスが終了したか否かの確認をおこなう。終了が確認されたらステップS51の処理に進み、このステップS51において、情感判定処理を終了する。その後、ステップS52の処理に進む。   In step S50, the MPU confirms whether or not the sentence for which emotion determination is to be performed has been completed. If the completion is confirmed, the process proceeds to step S51. In step S51, the emotion determination process is terminated. Thereafter, the process proceeds to step S52.

ステップS52において、MPU31は、上述の情感判定処理で判定された情感が明瞭であるか否かの判断をおこなう。ここで、情感が明瞭であると判断された場合には、ステップS53の処理に進む。   In step S52, the MPU 31 determines whether or not the emotion determined in the emotion determination process described above is clear. If it is determined that the emotion is clear, the process proceeds to step S53.

ステップS53において、MPU31の制御下で情感判定部27は、各センテンスに対応する情感変化を判定する処理を実行する。その結果、表3に示すような情感データが各センテンスに対して付与される。その後、ステップS55の処理に進む。   In step S <b> 53, the emotion determination unit 27 executes a process of determining a change in emotion corresponding to each sentence under the control of the MPU 31. As a result, emotion data as shown in Table 3 is given to each sentence. Thereafter, the process proceeds to step S55.

つまり、この場合において、情感判定部27は、テキストを構成する複数のセンテンス間の言葉の変化からテキストの情感を判定する。   That is, in this case, the emotion determination unit 27 determines the emotion of the text from the change of words between a plurality of sentences constituting the text.

表3は情感判定処理で判定された情感が明瞭な場合のテキストの具体的な例である。

Figure 2009141516
Table 3 shows specific examples of text when the emotion determined by the emotion determination process is clear.
Figure 2009141516

表3に示す例は、テーマ名が「ワクワク旅行」に含まれるテキスト群の例示である。この場合においてはセンテンスの喜怒哀楽が明確である。   The example shown in Table 3 is an example of a text group whose theme name is included in “exciting trip”. In this case, Sentence's emotions are clear.

即ち、表3に示す例では、各テキストには情感が分かりやすい単語が含まれていることから、それぞれの情感に合わせて画像を対応させればよい。具体的には、「嬉しい」,「元気に」,「わくわく」,「楽しい」等の単語は、明らかに喜怒哀楽の「喜」,「楽」に関連する言葉であるとが判断することができる。そこで、図5のステップS53の情感変化判定処理にて、表3に示す情感データが各センテンスに対して付与される。   In other words, in the example shown in Table 3, each text contains a word whose emotion is easy to understand. Therefore, an image may be associated with each emotion. Specifically, it should be judged that words such as “joyful”, “energetic”, “exciting”, and “fun” are clearly related to “joy” and “easy” of emotions. Can do. Therefore, the emotion data shown in Table 3 is given to each sentence in the emotion change determination process in step S53 of FIG.

一方、上述のステップS52の処理において、情感判定処理で判定された情感が不明瞭であると判断された場合には、ステップS54の処理に進む。   On the other hand, if it is determined in the process of step S52 described above that the emotion determined in the emotion determination process is unclear, the process proceeds to step S54.

ステップS54において、MPU31の制御下で情感判定部27は、各センテンスの変化によってに情感変化を判定する処理を実行する。その結果、表4に示すような情感データが各センテンスに対して付与される。その後、ステップS55の処理に進む。   In step S <b> 54, the emotion determination unit 27 executes a process of determining the emotion change according to the change of each sentence under the control of the MPU 31. As a result, emotion data as shown in Table 4 is given to each sentence. Thereafter, the process proceeds to step S55.

表4は、情感判定処理で判定された情感が不明瞭な場合のテキストの具体的な例である。

Figure 2009141516
Table 4 is a specific example of text when the emotion determined by the emotion determination process is unclear.
Figure 2009141516

表4に示す例は、テーマ名が「ドキドキ旅行」に含まれるテキスト群の例示である。この場合においてはセンテンス自体は喜怒哀楽が不明確である。   The example shown in Table 4 is an example of a text group whose theme name is included in “pounding trip”. In this case, the sentence itself is unclear.

即ち、表4に示す例では、各テキストのそれぞれが明快に「喜怒哀楽」などの感情要素を含んでいないためにセンテンスとしての情感が不明瞭であると判断される。表4に例示するテキスト群のように、抽象的な表現が多い場合には、例えば、最終センテンスでの効果を重視して、それ以前のセンテンスと比較して効果を強調する方向を決定することになる。そこで、図5のステップS54の情感変化判定処理にて、表4に示す情感データが各センテンスに対して付与される。   In other words, in the example shown in Table 4, it is determined that the feeling as a sentence is unclear because each of the texts clearly does not include an emotional element such as “feeling emotional”. When there are many abstract expressions as in the text group illustrated in Table 4, for example, the effect in the final sentence is emphasized, and the direction in which the effect is emphasized is determined in comparison with the previous sentence. become. Therefore, the emotion data shown in Table 4 is given to each sentence in the emotion change determination process in step S54 of FIG.

ここで、情感判定処理で判定された情感が不明瞭である場合に実行される情感変化判定処理(図5のステップS54の処理)について、以下に説明する。   Here, the emotion change determination process (the process of step S54 in FIG. 5) executed when the emotion determined in the emotion determination process is unclear will be described below.

図9は、本実施形態のカメラにおいて実行される合成モード処理中のサブルーチンであって、情感判定処理で判定された情感が不明瞭である場合の情感変化判定処理(図5のステップS54の処理)のサブルーチンを示すフローチャートである。   FIG. 9 is a subroutine during the synthesis mode process executed in the camera of the present embodiment, and the emotion change determination process when the emotion determined in the emotion determination process is unclear (the process of step S54 in FIG. 5). ) Is a flowchart showing a subroutine.

表4に示す例のようにセンテンスの情感が不明瞭である場合においては、各センテンスに喜怒哀楽を示す単語が存在しない。そこで、センテンス全体としての流れを考慮すると、例えば起承転結の流れにおいて、最後の2つのセンテンスが重要であると考える。そこで、最後の2つのセンテンス(表4の例ではテキスト番号3,4)の間の情感変化が、「喜」,「楽」系の情感変化になっているか、または「怒」,「哀」系の情感変化であるかを判定し、その判定結果を重視してセンテンス全体の情感判定をおこなう。   In the case where the feeling of the sentence is unclear as in the example shown in Table 4, there is no word indicating emotion in each sentence. Therefore, considering the flow of the entire sentence, for example, the last two sentences are considered important in the flow of starting and rolling. Therefore, the emotional change between the last two sentences (text numbers 3 and 4 in the example of Table 4) is the emotional change of “joy” and “easy”, or “anger” and “sorrow”. It is determined whether it is a system emotion change, and the emotion determination of the entire sentence is performed with emphasis on the determination result.

なお、以下の説明においては、単純化するために、「起承転結」に対応する4つのテキストによりセンテンスが構成されているものと仮定している(表4参照)。なお、テキスト数が多い場合には、「起承転結」のうち「承」に対応するテキストが並んでいると考えるものとする。   In the following description, for the sake of simplicity, it is assumed that the sentence is composed of four texts corresponding to “consecutive roll-up” (see Table 4). When the number of texts is large, it is assumed that the texts corresponding to “approval” are lined up among “confirmed transfer”.

このように、センテンス変化により情感変化を判定する処理(図9のサブルーチン)において重要なのは、センテンス中の最後の部分における落としどころであるとの考えから、「起承転結」のうちの「転」と「結」との間のコントラスト(差異)を重視し、これに基いて、センテンスと画像を合成した合成画像の再生表示時の表示効果を高めるようにしている。   As described above, in the process of determining the emotional change based on the sentence change (subroutine in FIG. 9), what is important is that the last part in the sentence is a drop point. Contrast (difference) is emphasized, and based on this, the display effect at the time of reproduction display of the synthesized image obtained by synthesizing the sentence and the image is enhanced.

そこで、まず、図9のステップS71において、MPU31の制御下で情感判定部27は、センテンス中における最終センテンス(表4のテキスト番号4)の情感判定をおこなう。その後、ステップS72の処理に進む
ステップS72において、情感判定部27は、最終センテンスの一つ前のセンテンスの情感判定をおこなう。その後、ステップS73の処理に進む。
Therefore, first, in step S71 of FIG. 9, the emotion determination unit 27 performs emotion determination of the final sentence (text number 4 in Table 4) in the sentence under the control of the MPU 31. Thereafter, the process proceeds to step S72. In step S72, the emotion determination unit 27 determines the emotion of the sentence immediately before the final sentence. Thereafter, the process proceeds to step S73.

ステップS73において、情感判定部27は、転結部の情感変化、即ち最終センテンスとその前のセンテンスとの間における情感変化が、「喜」,「楽」系の方向に変化しているか否かの判断をおこなう。ここで、情感が「喜」,「楽」系の方向に変化していると判断された場合には、ステップS74の処理に進む。   In step S73, the emotion determination unit 27 determines whether or not the emotional change of the conjunctive unit, that is, the emotional change between the last sentence and the previous sentence changes in the direction of “joy” and “easy”. Make a decision. If it is determined that the emotion has changed in the direction of “joy” or “easy”, the process proceeds to step S74.

ここで、表4の例を示せば、最終センテンス(センテンス番号4)には「ラッキー」という単語がある。これは明らかに「喜」の情感に対応するセンテンスである。   Here, if the example of Table 4 is shown, there will be a word "lucky" in the last sentence (sentence number 4). This is clearly a sentence corresponding to the feeling of “joy”.

一方、最終センテンスの前のセンテンス(センテンス番号3)には、明快な情感を示す言葉が存在しない。このことから、例えばセンテンス番号3の時点から最終のセンテンス(センテンス番号4)に至るまでの間に「嬉しさを獲得するようなドラマ」が展開されたと推測することができる。つまり、この場合には、「喜」,「楽」系の方向へと情感が変化していると判断される。   On the other hand, in the sentence before the final sentence (sentence number 3), there is no word indicating a clear feeling. From this, for example, it can be inferred that a “drama that captures joy” was developed from the time of sentence number 3 to the final sentence (sentence number 4). That is, in this case, it is determined that the emotion has changed in the direction of “joy” and “easy”.

ステップS74において、情感判定部27は、最終センテンス(番号4)の情感データとして10を付与する処理をおこなう。その後、ステップS75の処理に進む。   In step S74, the emotion determination unit 27 performs a process of assigning 10 as the emotion data of the final sentence (number 4). Thereafter, the process proceeds to step S75.

ステップS75において、情感判定部27は、最終センテンス(番号4)以外のセンテンスについて情感データを付与する処理をおこなう。その後、図5の元の処理に戻る(リターン)。   In step S <b> 75, the emotion determination unit 27 performs processing for providing emotion data for a sentence other than the final sentence (number 4). Thereafter, the processing returns to the original processing in FIG. 5 (return).

この場合の例として表4を挙げる。即ち、最初のセンテンスデータ(センテンス番号1)には情感が中庸であるという意味において情感データ「5」を付与し、次のセンテンスデータ(センテンス番号2)には情感データ「6」付与する。そして、次のセンテンスデータ(センテンス番号3)は、最終センテンスの一つ前のセンテンスであり、ここで変化をつける必要があることから、少しばかり「喜」,「楽」系の方向とは反対方向の情感データ「2」を付与する。これにより、最後のセンテンス(センテンス番号4)に付与された情感データ「10」の効果を高める効果を得ることができる。   Table 4 is given as an example in this case. That is, emotion data “5” is assigned to the first sentence data (sentence number 1) in the sense that the emotion is moderate, and emotion data “6” is assigned to the next sentence data (sentence number 2). And the next sentence data (sentence number 3) is the sentence immediately before the last sentence, and since it is necessary to change here, it is slightly opposite to the direction of “joy” and “easy”. The direction feeling data “2” is assigned. Thereby, the effect which improves the effect of emotion data "10" provided to the last sentence (sentence number 4) can be acquired.

一方、上述のステップS73の処理において、情感が「喜」,「楽」系の方向に変化していないと判断された場合には、ステップS76の処理に進む。   On the other hand, if it is determined in step S73 described above that the emotion has not changed in the direction of “joy” or “easy”, the process proceeds to step S76.

ステップS76において、情感判定部27は、転結部の情感変化、即ち最終センテンスとその前のセンテンスとの間における情感変化が、「怒」,「哀」系の方向に変化しているか否かの判断をおこなう。ここで、情感が「怒」,「哀」系の方向に変化していると判断された場合には、ステップS77の処理に進む。   In step S76, the emotion determination unit 27 determines whether or not the emotional change of the conjunctive unit, that is, the emotional change between the last sentence and the previous sentence changes in the direction of “anger” and “sorrow”. Make a decision. If it is determined that the emotion has changed in the direction of “anger” or “sad”, the process proceeds to step S77.

ステップS77において、情感判定部27は、最終センテンス(番号4)の情感データとして「0」を付与する処理をおこなう。つまり、情感が「怒」,「哀」系の方向であるので、最終的な効果を重視して、最終センテンスの情感データをミニマムである「0」設定する。その後、ステップS78の処理に進む。   In step S77, the emotion determination unit 27 performs a process of assigning “0” as the emotion data of the final sentence (number 4). In other words, since the emotion is in the direction of “anger” and “sorrow”, the final effect is emphasized, and the emotion data of the final sentence is set to “0” which is the minimum. Thereafter, the process proceeds to step S78.

ステップS78において、情感判定部27は、最終センテンス(番号4)以外のセンテンスについて情感データを付与する処理をおこなう。その後、図5の元の処理に戻る(リターン)。   In step S <b> 78, the emotion determination unit 27 performs a process of adding emotion data to a sentence other than the final sentence (number 4). Thereafter, the processing returns to the original processing in FIG. 5 (return).

この場合においては、例えば、最初のセンテンスデータ(センテンス番号1)には情感が中庸であるという意味において情感データ「5」を付与し、次のセンテンスデータ(センテンス番号2)には情感データ「4」付与する。そして、次のセンテンスデータ(センテンス番号3)は、最終センテンスの一つ前のセンテンスであり、ここで変化をつける必要があることから、少しばかり「怒」,「哀」系の方向とは反対方向の情感データ「8」を付与する。これにより、最後のセンテンス(センテンス番号4)に付与された情感データ「0」の効果を高める効果を得ることができる。   In this case, for example, emotion data “5” is given to the first sentence data (sentence number 1) in the sense that the emotion is moderate, and emotion data “4” is assigned to the next sentence data (sentence number 2). "Give. And the next sentence data (sentence number 3) is the sentence immediately before the final sentence, and since it is necessary to change here, it is slightly opposite to the direction of “anger” and “sorrow”. The direction feeling data “8” is assigned. As a result, an effect of enhancing the effect of emotion data “0” given to the last sentence (sentence number 4) can be obtained.

一方、上述のステップS76の処理において、情感が「怒」,「哀」系の方向に変化していないと判断された場合、つまり、最終センテンスの情感変化が不明瞭である場合には、ステップS79の処理に進む。   On the other hand, if it is determined in the process of step S76 that the emotion has not changed in the direction of “anger” or “sorrow”, that is, if the emotional change in the final sentence is unclear, step The process proceeds to S79.

ステップS79において、情感判定部27は、最初のセンテンスの情感が「怒」,「哀」系の言葉であるか否かの判断をおこなう。ここで、情感が「怒」,「哀」系の言葉であると判断された場合には、ステップS74の処理に進む。   In step S79, the emotion determination unit 27 determines whether the emotion of the first sentence is an “angry” or “sad” word. If it is determined that the emotion is an “angry” or “sad” word, the process proceeds to step S74.

つまり、ここでは、最初のセンテンスを判定し(ステップS79)、以降のセンテンスでは、この最初のセンテンスの情感が持続されるか、またはさらに強調される展開になるものと仮定している。   That is, here, the first sentence is determined (step S79), and it is assumed that the feeling of the first sentence is sustained or further emphasized in the subsequent sentences.

一方、上述のステップS79の処理において、最初のセンテンスの情感が「怒」,「哀」系の言葉ではないと判断された場合には、ステップS80の処理に進む。   On the other hand, if it is determined in step S79 that the first sentence is not an “angry” or “sorrow” word, the process proceeds to step S80.

ステップS80において、情感判定部27は、最初のセンテンスの情感が「喜」,「楽」系の言葉であるか否かの判断をおこなう。ここで、情感が「喜」,「楽」系の言葉であると判断された場合には、ステップS77の処理に進む。また、情感が「喜」,「楽」系の言葉ではないと判断された場合、つまり最初のセンテンスが「怒」,「哀」,「喜」,「楽」のいずれでもなく、最初のセンテンスの情感が不明瞭であり、かつそのセンテンスは全体として抽象的概念の流れであると判断されて、ステップS81の処理に進む。   In step S80, the emotion determination unit 27 determines whether or not the emotion of the first sentence is a word of “joy” or “easy”. If it is determined that the emotion is a word of “joy” or “easy”, the process proceeds to step S77. Also, if the emotion is judged not to be a word of “joy” or “easy”, that is, the first sentence is not “angry”, “sad”, “joy”, “easy”, but the first sentence. And the sentence is determined to be an abstract concept flow as a whole, and the process proceeds to step S81.

ステップS80において、情感判定部27は、全てのセンテンスについて情感データ「5」を付与する。その後、図5の元の処理に戻る(リターン)。   In step S80, the emotion determination unit 27 provides emotion data “5” for all sentences. Thereafter, the processing returns to the original processing in FIG. 5 (return).

つまり、この場合には、いずれのセンテンスのどれが同様の情感であるとして、基本的には画像を時系列に並べる処理が行われるようにする。   In other words, in this case, it is assumed that processing of arranging images in time series is basically performed, assuming which sentence has the same feeling.

図5に戻って、ステップS55において、MPU31の制御下で画像選択部28は、各センテンスのデータに付与されている情感データに基いて各センテンスの情感を判定し、指定範囲の画像の中から対応する画像を選択する処理をおこなう。この画像選択処理は、上述の図8のフローチャート(図5のステップS45の処理)と同様の処理シーケンスである。その後、ステップS56の処理に進む。   Returning to FIG. 5, in step S55, under the control of the MPU 31, the image selection unit 28 determines the emotion of each sentence based on the emotion data assigned to the data of each sentence, and from the images in the specified range. A process for selecting the corresponding image is performed. This image selection process is the same processing sequence as the flowchart in FIG. 8 described above (the process in step S45 in FIG. 5). Thereafter, the process proceeds to step S56.

ステップS56において、MPU31の制御下においてテキスト合成部30は、上述のステップS45,S55の処理にて画像選択部28によって選択された画像に対して対応するセンテンスを、画像判定部29により判定された適切な位置に合成する処理をおこなって、テキスト付きの合成画像(テキスト画像)を作成する。その後、ステップS57の処理に進む。   In step S56, under the control of the MPU 31, the text composition unit 30 has determined, by the image determination unit 29, a sentence corresponding to the image selected by the image selection unit 28 in the processing of steps S45 and S55 described above. A composite image (text image) with text is created by performing processing for combining at an appropriate position. Thereafter, the process proceeds to step S57.

ステップS57において、MPU31は、上述のステップS56の処理にて作成された複数の合成画像を所定の順番で組合せて一連のファイル群としてまとめた一つのフォルダーとしてファイル化する。その後、ステップS58の処理に進む。   In step S57, the MPU 31 combines a plurality of composite images created in the above-described step S56 in a predetermined order and forms a file as a single folder grouped as a series of file groups. Thereafter, the process proceeds to step S58.

ステップS58において、MPU31は、圧縮伸長部18,記録再生部19を制御して、上述のデータファイル群からなるフォルダーを記録媒体20もしくはROM32に記録する処理を実行する。この場合において、記録媒体20には、テキスト合成部30により作成されたテキスト画像をフォルダーとして記録する所定の領域となる記録部(特に図示せず)が設けられている。   In step S58, the MPU 31 controls the compression / decompression unit 18 and the recording / reproducing unit 19 to execute a process of recording a folder including the above-described data file group on the recording medium 20 or the ROM 32. In this case, the recording medium 20 is provided with a recording unit (not shown in particular) serving as a predetermined area for recording a text image created by the text synthesis unit 30 as a folder.

なお、この場合において、特に指定がなければフォルダー名はテーマ名と一致させておけばよい。   In this case, the folder name may be the same as the theme name unless otherwise specified.

また、記録媒体20に記録する画像の形態としては、合成処理後の合成画像のデータそのものを記録する形態のほかに、例えば上述の図5の処理シーケンスによるセンテンスと画像との組合せに関する情報のみをデータ化し、これを記録媒体20やROM32等に記録するようにしてもよい。この場合には、記録した情報データに基いて再生動作の都度合成画像を作成して、その結果を表示することになる。この例によれば、記録容量を節約することができるという効果がある。   Further, as the form of the image to be recorded on the recording medium 20, in addition to the form of recording the synthesized image data itself after the synthesis process, for example, only information related to the combination of the sentence and the image by the processing sequence of FIG. Data may be converted and recorded in the recording medium 20, the ROM 32, or the like. In this case, a composite image is created for each reproduction operation based on the recorded information data, and the result is displayed. According to this example, the recording capacity can be saved.

図2のフローチャートに戻って、上述のステップS12の処理において、合成モードに設定されていないことが確認された場合には、上述したようにステップS14の処理に進む。   Returning to the flowchart of FIG. 2, when it is confirmed in the process of step S12 described above that the composition mode is not set, the process proceeds to step S14 as described above.

この場合には、ステップS14において、MPU31は、本カメラ10の動作モードが合成画像を再生する合成再生モードに設定されているか否かの確認をおこなう。ここで、合成再生モードに設定されていることが確認された場合には、ステップS15の処理に進む。   In this case, in step S14, the MPU 31 checks whether or not the operation mode of the camera 10 is set to a composite reproduction mode for reproducing a composite image. If it is confirmed that the composite reproduction mode is set, the process proceeds to step S15.

ステップS15において、MPU31は、記録媒体20等に記録されているフォルダ名(複数)を表示部22に例えば一覧形式で表示させ、使用者に再生すべきフォルダを選択させるため、指示信号の入力待機状態になる。ここで、使用者が所定の操作部材を用いて再生を所望するフォルダ名を選択する。その指示信号を受けてMPU31は、記録媒体20(もしくはROM32等)から指定されたフォルダから順次合成画像ファイルを読み出して表示部22に、例えば所定時間間隔で順次表示(スライドショー表示)させる処理制御をおこなう。その後、ステップS11の処理に進み、終了指示をまって一連の処理を終了する。終了指示がなければ、上述のステップS1の処理に戻り、以降の処理を繰り返す。   In step S15, the MPU 31 displays the folder name (plurality) recorded in the recording medium 20 or the like on the display unit 22, for example, in a list format, and waits for an instruction signal to be input to allow the user to select a folder to be played back. It becomes a state. Here, the user selects a folder name to be reproduced using a predetermined operation member. Upon receiving the instruction signal, the MPU 31 performs processing control to sequentially read out the composite image file from the designated folder from the recording medium 20 (or the ROM 32, etc.) and display it sequentially on the display unit 22 at a predetermined time interval (slide show display), for example. Do it. Thereafter, the process proceeds to step S11, an end instruction is issued, and the series of processes is terminated. If there is no end instruction, the processing returns to the above-described step S1, and the subsequent processing is repeated.

一方、上述のステップS14の処理において、合成再生モードに設定されていないことが確認された場合には、ステップS17の処理に進む。   On the other hand, if it is confirmed in the process of step S14 that the composite playback mode is not set, the process proceeds to step S17.

ステップS17において、MPU31は、通常の再生モードが設定されているものとして、使用者に画像選択操作をおこなわせ、次のステップS18において、MPU31は、前のステップS17にて使用者により選択された画像を表示部22を用いて再生表示する制御処理をおこなう。その後、ステップS11の処理に進み、終了指示をまって一連の処理を終了する。終了指示がなければ、上述のステップS1の処理に戻り、以降の処理を繰り返す。   In step S17, the MPU 31 assumes that the normal playback mode is set, and causes the user to perform an image selection operation. In the next step S18, the MPU 31 is selected by the user in the previous step S17. A control process for reproducing and displaying an image using the display unit 22 is performed. Thereafter, the process proceeds to step S11, an end instruction is issued, and the series of processes is terminated. If there is no end instruction, the processing returns to the above-described step S1, and the subsequent processing is repeated.

以上説明したように上記一実施形態によれば、使用者が選択したテーマに含まれるセンテンスに適した画像が、記録媒体20に記録済みの画像の中から自動的に選択され、選択された画像に対して上記センテンスが合成処理されて、その結果作成される合成画像が表示部22に表示され、同時に作成された合成画像が記録媒体20に記録されるように構成されている。このような構成により、カメラ10を用いて普通に撮影した大量の画像を利用して自動的に作成される合成画像によって多人数が楽しむことができる。   As described above, according to the above-described embodiment, an image suitable for the sentence included in the theme selected by the user is automatically selected from the images already recorded on the recording medium 20, and the selected image is selected. The sentence is synthesized, the resultant synthesized image is displayed on the display unit 22, and the synthesized image created at the same time is recorded on the recording medium 20. With such a configuration, a large number of people can enjoy using a composite image that is automatically created using a large number of images that are normally captured using the camera 10.

この場合において、合成処理の結果作成される合成画像は、センテンスの内容とは直接関係のない画像が選択される可能性もあることから、例えば撮影日時順に再生表示する通常の表示順番以外の順番で記録媒体20に撮り溜めた画像をスライドショー形式等で表示させることができるので、使用者に意外性等を感じさせる等の効果により楽しみを与える得る新規な画像鑑賞方法を実現することができる。   In this case, the composite image created as a result of the composition process may select an image that is not directly related to the content of the sentence. Thus, since the images collected on the recording medium 20 can be displayed in a slide show format or the like, it is possible to realize a novel image appreciation method that can give the user a sense of surprise or the like.

そして、所定のテーマに対応する画像を、そのテーマに含まれるセンテンスに付与される情感データに基いて選択するようにしたので、テーマに直接対応する画像が存在しなくてもよいし、そのためにテーマに沿った画像をわざわざ撮影しておくような必要もない。   And since an image corresponding to a predetermined theme is selected based on emotion data given to a sentence included in the theme, there is no need for an image directly corresponding to the theme. There is no need to shoot images that match the theme.

このように、本発明によれば、テキストデータベース26に蓄積されるセンテンスのデータに付与される情感データに合わせて、記録媒体20に記録された撮影済み画像データを笑顔データR値等を参照して選択し、複数のセンテンスによって構成される一連のストーリーに対して対応する画像が選択され、選択画像が順番に表示(スライド表示)されるようにすることで、全く新規な形態の画像表示装置を提供することができる。   As described above, according to the present invention, the photographed image data recorded on the recording medium 20 is referred to the smile data R value or the like in accordance with the emotion data added to the sentence data stored in the text database 26. A corresponding image is selected for a series of stories composed of a plurality of sentences, and the selected images are displayed in order (slide display), thereby completely changing the image display device. Can be provided.

なお、上記一実施形態において説明したMPU31による処理に関しては、一部または全てをハードウエアで構成してもよい。   Note that part or all of the processing by the MPU 31 described in the above embodiment may be configured by hardware.

そして、MPU31による制御処理は、ROM32等に格納されたソフトウエアプログラムがMPU31に供給され、供給されたプログラムに従って上記の動作をさせることで実現されるものである。したがって、上記ソフトウエアのプログラム自体がMPU31の機能を実現することになり、そのプログラム自体は本発明を構成する。   The control process by the MPU 31 is realized by supplying a software program stored in the ROM 32 or the like to the MPU 31 and performing the above operation according to the supplied program. Therefore, the software program itself realizes the functions of the MPU 31, and the program itself constitutes the present invention.

また、そのプログラムを格納する記録媒体も本発明を構成する。その記録媒体としては、フラッシュメモリ以外でも、CD−ROM,DVD等の光学記録媒体,MD等の光磁気記録媒体,テープ媒体,ICカード等の半導体メモリ等を用いることができる。   A recording medium for storing the program also constitutes the present invention. As the recording medium, besides a flash memory, an optical recording medium such as a CD-ROM or DVD, a magneto-optical recording medium such as an MD, a tape medium, a semiconductor memory such as an IC card, or the like can be used.

上述の一実施形態では、画像表示機能を有する画像表示装置を備えたデジタルカメラに本発明を適用した場合の例に挙げて詳細な説明をしているが、本発明の画像表示装置としては、これに限られるわけではなく、例えばデジタルカメラで取得し記録された多数の画像データを蓄積する記録媒体を有し、この記録媒体に記録された画像データに基いて画像の表示をおこなったり、各種のデータ処理をおこない得るように構成される画像表示装置若しくは画像処理装置等の各種の機器、例えば小型コンピュータ等に対して本発明を適用することは同様に可能である。   In the above-described embodiment, a detailed description is given by taking an example in which the present invention is applied to a digital camera provided with an image display device having an image display function. However, as an image display device of the present invention, However, the present invention is not limited to this. For example, it has a recording medium that stores a large number of image data acquired and recorded by a digital camera, and displays images based on the image data recorded on the recording medium. It is also possible to apply the present invention to various devices such as an image display device or an image processing device configured to perform the data processing, such as a small computer.

なお、本発明は上述した実施形態に限定されるものではなく、発明の主旨を逸脱しない範囲内において種々の変形や応用を実施し得ることが可能であることは勿論である。さらに、上記実施形態には、種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせによって、種々の発明が抽出され得る。例えば、上記一実施形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果で述べられている効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。   Note that the present invention is not limited to the above-described embodiment, and various modifications and applications can of course be implemented without departing from the spirit of the invention. Further, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent elements are deleted from all the constituent elements shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effect described in the effect of the invention Can be obtained as an invention.

本発明の一実施形態の画像表示システムの全体構成を概略的に示すブロック構成図。1 is a block configuration diagram schematically showing an overall configuration of an image display system according to an embodiment of the present invention. 本実施形態の画像表示システムにおけるカメラ制御の流れを示すフローチャート。6 is a flowchart showing the flow of camera control in the image display system of the present embodiment. 本実施形態のカメラにおいて実行される笑顔度検出処理を説明する図。The figure explaining the smile degree detection process performed in the camera of this embodiment. 本実施形態のカメラにおいて実行される笑顔度検出処理(図2のステップS5の処理)のサブルーチンを示すフローチャート。6 is a flowchart showing a subroutine of smile level detection processing (step S5 in FIG. 2) executed in the camera of the present embodiment. 本実施形態のカメラにおいて実行される合成モード処理(図2のステップS13の処理)のサブルーチンを示すフローチャート。6 is a flowchart showing a subroutine of a synthesis mode process (the process in step S13 in FIG. 2) executed in the camera of the present embodiment. 本実施形態のカメラにおける合成モード処理時において、センテンスの情感データに対応する画像が選択される際に基準となる情感データと笑顔データR値との関係を示す図。The figure which shows the relationship between the emotion data used as a reference | standard and the smile data R value when the image corresponding to the emotion data of a sentence is selected at the time of the synthetic | combination mode process in the camera of this embodiment. 本実施形態のカメラにおける合成モード処理時において、センテンスの情感データに対応する画像が選択される際のセンテンスと選択画像との関係を表すグラフ。6 is a graph showing a relationship between a sentence and a selected image when an image corresponding to the emotion data of the sentence is selected during the synthesis mode processing in the camera of the present embodiment. 本実施形態のカメラにおいて実行される合成モード処理中のサブルーチンであって、情感データが添付されている場合の画像選択処理(図5のステップS45の処理)のサブルーチンを示すフローチャート。6 is a flowchart showing a subroutine of an image selection process (the process of step S45 in FIG. 5) in the synthesis mode process executed in the camera of the present embodiment when emotion data is attached. 本実施形態のカメラにおいて実行される合成モード処理中のサブルーチンであって、情感判定処理で判定された情感が不明瞭である場合の情感変化判定処理(図5のステップS54の処理)のサブルーチンを示すフローチャート。The subroutine of the synthesis mode process executed in the camera of the present embodiment, the subroutine of the emotion change determination process (the process of step S54 in FIG. 5) when the emotion determined in the emotion determination process is unclear. The flowchart shown.

符号の説明Explanation of symbols

1……画像表示システム
10……カメラ
11……撮影レンズ
12……合焦レンズ位置制御部(AF部)
13……光量調整部
14……光量制御部
15……撮像素子
16……アナログフロントエンド部(AFE部)
17……画像処理部
17a……顔検出部
18……圧縮伸長部
19……記録再生部
20……記録媒体
21……表示制御部
22……表示部
23……通信部
24……補助光発光部
25……表情判定及び感情類推部
26………テキストデータベース
27……情感判定部
28……画像選択部
29……画像判定部
30……テキスト合成部
31……MPU
31a……時計
32……ROM
33……操作スイッチ
35……被写体
40……小型コンピュータ(PC)
50……通信ネットワーク
100……外部サーバー
101……記録表示部
102……通信部
103……センテンス抽出部
110……データベース
111……文書データベース
112……情感データベース
DESCRIPTION OF SYMBOLS 1 ... Image display system 10 ... Camera 11 ... Shooting lens 12 ... Focusing lens position control part (AF part)
13 ... Light quantity adjustment part 14 ... Light quantity control part 15 ... Image sensor 16 ... Analog front end part (AFE part)
17 …… Image processing unit 17a …… Face detection unit 18 …… Compression / decompression unit 19 …… Recording / reproducing unit 20 …… Recording medium 21 …… Display control unit 22 …… Display unit 23 …… Communication unit 24 …… Auxiliary light Light emitting unit 25 …… Expression determination and emotion analogy unit 26 ………… Text database 27 …… Emotion determination unit 28 …… Image selection unit 29 …… Image determination unit 30 …… Text composition unit 31 …… MPU
31a …… Clock 32 …… ROM
33 …… Operation switch 35 …… Subject 40 …… Small computer (PC)
50 …… Communication network 100 …… External server 101 …… Record display unit 102 …… Communication unit 103 …… Sentence extraction unit 110 …… Database 111 …… Document database 112 …… Emotion database

Claims (11)

テキストの情感を判定する情感判定部と、
画像の被写体の表情を判定する表情判定部と、
上記テキストに対応する画像として、上記情感判定部により判定される上記テキストの情感に、上記表情判定部により判定される上記被写体の表情が対応する画像を選択する画像選択部と、
上記テキストと上記画像選択部により選択された画像とを合成してテキスト画像を作成するテキスト合成部と、
上記テキスト合成部により作成された上記テキスト画像を表示する表示部と、
を備えてなることを特徴とする画像表示装置。
An emotion determination unit for determining the emotion of the text;
A facial expression determination unit that determines the facial expression of the subject of the image;
An image selection unit that selects an image corresponding to the emotion of the text determined by the emotion determination unit as an image corresponding to the text, the facial expression of the subject determined by the facial expression determination unit;
A text synthesis unit that creates a text image by synthesizing the text and the image selected by the image selection unit;
A display unit for displaying the text image created by the text synthesis unit;
An image display device comprising:
上記情感判定部は、上記テキストを構成する各センテンス毎に情感を判定し、
上記画像選択部は、各センテンスの情感に上記被写体の表情が対応する画像をそれぞれ選択することを特徴とする請求項1に記載の画像表示装置。
The emotion determination unit determines emotion for each sentence constituting the text,
The image display device according to claim 1, wherein the image selection unit selects an image in which the expression of the subject corresponds to the emotion of each sentence.
上記情感判定部は、上記テキストを構成する複数のセンテンス間の言葉の変化から上記テキストの情感を判定することを特徴とする請求項2に記載の画像表示装置。   The image display device according to claim 2, wherein the emotion determination unit determines an emotion of the text from a change in words between a plurality of sentences constituting the text. 上記情感判定部は、上記テキストに付された情感データに基づいて情感を判定することを特徴とする請求項1に記載の画像表示装置。   The image display device according to claim 1, wherein the emotion determination unit determines an emotion based on emotion data attached to the text. 上記テキストをデータとして記録するテキスト記録部を備えることを特徴とする請求項4に記載の画像表示装置。   The image display apparatus according to claim 4, further comprising a text recording unit that records the text as data. 上記表情判定部は、上記画像内から検出された被写体の顔についての笑顔の度合いに基づいて上記被写体の表情を判定することを特徴とする請求項1に記載の画像表示装置。   The image display apparatus according to claim 1, wherein the facial expression determination unit determines the facial expression of the subject based on a smile level of the subject's face detected from the image. 上記画像選択部により選択される画像が予め記録されている記録媒体を有し、
上記記録媒体は、上記テキスト合成部により作成されたテキスト画像をフォルダーとして記録する記録部を備えてなることを特徴とする請求項1に記載の画像表示装置。
A recording medium on which an image selected by the image selection unit is recorded in advance;
The image display apparatus according to claim 1, wherein the recording medium includes a recording unit that records the text image created by the text synthesis unit as a folder.
被写体像を結像させる撮影レンズと、
上記撮影レンズにより結像される被写体像を受光して光電変換処理をおこない電気的な画像信号を出力する撮像素子と、
上記撮像素子から出力される画時信号に基いて被写体の顔を検出する顔検出部と、
テキストの情感を判定する情感判定部と、画像の被写体の表情を判定する表情判定部と、上記テキストに対応する画像として上記情感判定部により判定される上記テキストの情感に上記表情判定部により判定される上記被写体の表情が対応する画像を選択する画像選択部と、上記テキストと上記画像選択部により選択された画像とを合成してテキスト画像を作成するテキスト合成部と、上記テキスト合成部により作成された上記テキスト画像を表示する表示部とを備えてなる画像表示装置と、
を具備し、
上記表情判定部は、上記顔検出部によって検出された被写体の顔についての笑顔の度合いに基いて上記被写体の表情を判定することを特徴とするカメラ。
A photographic lens that forms a subject image;
An image sensor that receives a subject image formed by the photographing lens, performs photoelectric conversion processing, and outputs an electrical image signal; and
A face detection unit that detects a face of a subject based on a time signal output from the image sensor;
An emotion determination unit that determines the emotion of the text, a facial expression determination unit that determines the facial expression of the subject of the image, and the facial expression determination unit that determines the emotion of the text that is determined by the emotion determination unit as an image corresponding to the text An image selection unit that selects an image corresponding to the facial expression of the subject, a text synthesis unit that creates a text image by synthesizing the text and the image selected by the image selection unit, and a text synthesis unit An image display device comprising a display unit for displaying the created text image;
Comprising
The camera according to claim 1, wherein the facial expression determination unit determines the facial expression of the subject based on the degree of smile on the face of the subject detected by the face detection unit.
テキストを構成する各センテンスの情感の度合いを判定し、
上記各センテンスに対応する画像として、各センテンスの情感に撮影された被写体の表情が対応する画像を選択し、
上記各センテンスと上記選択された画像とをそれぞれ合成してテキスト合成画像を作成し、
上記テキスト合成画像を上記テキストの各センテンスの順番に表示することを特徴とする画像表示方法。
Determining the feeling of each sentence that makes up the text,
As an image corresponding to each sentence, select an image corresponding to the facial expression of the subject photographed in the emotion of each sentence,
A text composite image is created by combining each sentence and the selected image.
An image display method, wherein the text composite image is displayed in the order of each sentence of the text.
画像表示方法をコンピュータに実行させるプログラムであって、
テキストを構成する各センテンスの情感の度合いを判定するステップと、
上記各センテンスに対応する画像として、各センテンスの情感に撮影された被写体の表情が対応する画像を選択するステップと、
上記各センテンスと上記選択された画像とをそれぞれ合成してテキスト合成画像を作成するステップと、
上記テキスト合成画像を上記テキストの各センテンスの順番に表示するステップと、
を有することを特徴とするプログラム。
A program for causing a computer to execute an image display method,
Determining the degree of emotion of each sentence comprising the text;
Selecting an image corresponding to the expression of the subject photographed in the emotion of each sentence as an image corresponding to each sentence;
Synthesizing each sentence and the selected image to create a text composite image; and
Displaying the text composite image in the order of each sentence of the text;
The program characterized by having.
画像表示装置と、この画像表示装置との間でネットワークを介して接続されるサーバ装置とからなる画像表示システムにおいて、
上記サーバ装置は、文書が格納される文書データベースと、
上記文書の各センテンスの情感を数値で表現する情感データが格納された情感データベースと、
使用者から送信されたテーマに対応してストーリーを構成できる複数のセンテンスを上記文書データベースから抽出し、かつ抽出した各センテンスに対応する情感データを上記情感データベースから抽出するセンテンス抽出部と、
上記センテンス抽出部により抽出されたセンテンスと、これに対応する情感データとを使用者に送信する通信部と、
を具備し、
上記画像表示装置は、上記サーバ装置から送信された上記情感データを含む各センテンスからなるテキストを記録するテキスト記録部と、
上記各センテンスの情感を判定する情感判定部と、
画像の被写体の表情を判定する表情判定部と、
上記各センテンスに対応する画像として、当該各センテンスの情感に上記被写体の表情が対応する画像を選択する画像選択部と、
上記各センテンスと上記画像選択部により選択された画像とを合成してテキスト画像を作成するテキスト合成部と、
上記テキスト合成部により作成された上記テキスト画像を表示する表示部と、を備えてなることを特徴とする画像表示システム。
In an image display system including an image display device and a server device connected to the image display device via a network,
The server device includes a document database in which documents are stored;
A sentiment database that stores sentiment data that expresses the sentiment of each sentence in the document numerically;
A sentence extraction unit that extracts a plurality of sentences that can constitute a story corresponding to a theme transmitted from a user from the document database, and extracts emotion data corresponding to each extracted sentence from the emotion database;
A communication unit that transmits the sentence extracted by the sentence extraction unit and emotion data corresponding to the sentence to the user;
Comprising
The image display device includes a text recording unit that records a text including each sentence including the emotion data transmitted from the server device;
An emotion determination unit for determining the emotion of each sentence;
A facial expression determination unit that determines the facial expression of the subject of the image;
An image selection unit that selects an image corresponding to the emotion of each sentence as an image corresponding to each sentence;
A text synthesis unit that creates a text image by synthesizing each sentence and the image selected by the image selection unit;
An image display system comprising: a display unit that displays the text image created by the text synthesis unit.
JP2007313875A 2007-12-04 2007-12-04 Image display device, camera, image display method, program, image display system Pending JP2009141516A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007313875A JP2009141516A (en) 2007-12-04 2007-12-04 Image display device, camera, image display method, program, image display system
CN2008101795481A CN101453573B (en) 2007-12-04 2008-12-04 Image display device and camera, image display method and image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007313875A JP2009141516A (en) 2007-12-04 2007-12-04 Image display device, camera, image display method, program, image display system

Publications (1)

Publication Number Publication Date
JP2009141516A true JP2009141516A (en) 2009-06-25

Family

ID=40735566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007313875A Pending JP2009141516A (en) 2007-12-04 2007-12-04 Image display device, camera, image display method, program, image display system

Country Status (2)

Country Link
JP (1) JP2009141516A (en)
CN (1) CN101453573B (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012100174A (en) * 2010-11-04 2012-05-24 Canon Inc Imaging device and control method of the same
JP2014175733A (en) * 2013-03-06 2014-09-22 Nikon Corp Image reproduction apparatus and image reproduction program
US9183632B2 (en) 2010-11-24 2015-11-10 Nec Corporation Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program
US9196042B2 (en) 2010-11-24 2015-11-24 Nec Corporation Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program
US9224033B2 (en) 2010-11-24 2015-12-29 Nec Corporation Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program
WO2018225113A1 (en) * 2017-06-05 2018-12-13 日本電気株式会社 Value determining device, value determining method, recording medium having value determining program recorded thereon, system, and notifying device
US10398366B2 (en) 2010-07-01 2019-09-03 Nokia Technologies Oy Responding to changes in emotional condition of a user

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6213470B2 (en) * 2012-08-17 2017-10-18 株式会社ニコン Image processing apparatus, imaging apparatus, and program
CN105791692B (en) 2016-03-14 2020-04-07 腾讯科技(深圳)有限公司 Information processing method, terminal and storage medium
JP6589838B2 (en) * 2016-11-30 2019-10-16 カシオ計算機株式会社 Moving picture editing apparatus and moving picture editing method
CN107977928B (en) * 2017-12-21 2022-04-19 Oppo广东移动通信有限公司 Expression generation method and device, terminal and storage medium
CN108449552B (en) * 2018-03-07 2019-12-03 北京理工大学 The method and system at tag image acquisition moment
CN112887613B (en) * 2021-01-27 2022-08-19 维沃移动通信有限公司 Shooting method and device, electronic equipment and storage medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10398366B2 (en) 2010-07-01 2019-09-03 Nokia Technologies Oy Responding to changes in emotional condition of a user
JP2012100174A (en) * 2010-11-04 2012-05-24 Canon Inc Imaging device and control method of the same
US9183632B2 (en) 2010-11-24 2015-11-10 Nec Corporation Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program
US9196042B2 (en) 2010-11-24 2015-11-24 Nec Corporation Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program
US9224033B2 (en) 2010-11-24 2015-12-29 Nec Corporation Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program
JP2014175733A (en) * 2013-03-06 2014-09-22 Nikon Corp Image reproduction apparatus and image reproduction program
WO2018225113A1 (en) * 2017-06-05 2018-12-13 日本電気株式会社 Value determining device, value determining method, recording medium having value determining program recorded thereon, system, and notifying device

Also Published As

Publication number Publication date
CN101453573A (en) 2009-06-10
CN101453573B (en) 2010-09-29

Similar Documents

Publication Publication Date Title
JP2009141516A (en) Image display device, camera, image display method, program, image display system
JP4640456B2 (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
JP5028225B2 (en) Image composition apparatus, image composition method, and program
CN101262561B (en) Imaging apparatus and control method thereof
JP2011040876A (en) Camera, method of controlling camera, display controller, and display control method
JP2008066886A (en) Camera, communication control device, photography technical assistance system, photography technical assistance method, program
JP4889554B2 (en) Camera, content creation method, and program
JP2010021819A (en) Image display apparatus, image display method, and program
JP2008136074A (en) Camera and photography program
JP6166070B2 (en) Playback apparatus and playback method
JP2020137050A (en) Imaging device, imaging method, imaging program, and learning device
JP6508635B2 (en) Reproducing apparatus, reproducing method, reproducing program
US20150249792A1 (en) Image processing device, imaging device, and program
JP2010050705A (en) Camera
JP4922066B2 (en) camera
JP5509287B2 (en) Reproduction display device, reproduction display program, reproduction display method, and image processing server
JP7428143B2 (en) Photography equipment, photography method, and program
WO2022014143A1 (en) Imaging system
JP2010178177A (en) Camera, display and electronic equipment
JP2012038345A (en) Image processing apparatus, image processing method, and camera
WO2022158201A1 (en) Image processing device, image processing method, and program
JP4757828B2 (en) Image composition apparatus, photographing apparatus, image composition method, and image composition program
JP2009027462A (en) Imaging apparatus, imaging method and imaging program
JP2007251780A (en) Image reproducing device and program therefor
JP5106240B2 (en) Image processing apparatus and image processing server