JP2012079330A - Guide apparatus and guide method - Google Patents

Guide apparatus and guide method Download PDF

Info

Publication number
JP2012079330A
JP2012079330A JP2011263393A JP2011263393A JP2012079330A JP 2012079330 A JP2012079330 A JP 2012079330A JP 2011263393 A JP2011263393 A JP 2011263393A JP 2011263393 A JP2011263393 A JP 2011263393A JP 2012079330 A JP2012079330 A JP 2012079330A
Authority
JP
Japan
Prior art keywords
language
unit
facial expression
image
target person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011263393A
Other languages
Japanese (ja)
Other versions
JP5096610B2 (en
Inventor
Osamu Nonaka
修 野中
Masaomi Tomizawa
将臣 冨澤
Satoshi Miyazaki
敏 宮崎
Atsushi Maruyama
淳 丸山
Takeshi Suzuki
猛士 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Olympus Imaging Corp
Original Assignee
Olympus Corp
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp, Olympus Imaging Corp filed Critical Olympus Corp
Priority to JP2011263393A priority Critical patent/JP5096610B2/en
Publication of JP2012079330A publication Critical patent/JP2012079330A/en
Application granted granted Critical
Publication of JP5096610B2 publication Critical patent/JP5096610B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a guide apparatus and guide method in which, even when a language that a partner to be communicated speaks is not known, the language can be determined.SOLUTION: Guide information is displayed (S23), an expression of a target person to observe the guide information is monitored (S22), and the monitored expression of the target person is determined (S25). During display of the guide information, in accordance with the determined expression of the target person, contents of a message to the target person are determined, and the message is displayed for the target person (S28-S32).

Description

本発明は、ガイド装置に関し、詳しくは、使用する言語が分からない相手に対しても適切な言語を選択してガイドを行なうことのできるガイド装置およびガイド方法に関する。 The present invention relates to a guide device, and more particularly, to a guide device and a guide method that can perform guidance by selecting an appropriate language even for a partner who does not know the language to be used.

近年、インターネットが普及し、世界中の人と簡単に即座に繋がるようになってきている。このように、インターネットを通じて、コミュニケーションできる環境になっているにもかかわらず、言葉の壁のために、インターナショナルな交流は困難である。しかし、文章でなく、画像であれば、言葉の壁を越えての交流を図りやすい。また、デジタル技術の普及によって、ネット上に画像をアップしやすくなっているので、この画像を利用することにより交流を深める可能性がある。 In recent years, the Internet has become widespread and it has come to be easily and instantly connected with people all over the world. In this way, international communication is difficult because of the language barrier, despite the fact that it is an environment where communication is possible through the Internet. However, if it is an image rather than a sentence, it is easy to interact across language barriers. Moreover, since the spread of digital technology has made it easier to upload images on the Internet, there is a possibility of deepening exchanges by using these images.

この意味で写真による画像の利用可能性は高いが、海外に行き、または海外から外国人が日本を訪れた際に、彼らとコミュニケーションをとり、また写真をとることは、やはり言語の壁があり簡単ではない。この言語の問題を解決するための翻訳等については、従来から種々提案がなされている。しかし、高性能の翻訳機が出現したとしても、言語の数は多く、複数の言語の中から、コミュニケーションの場で、対応する言語を選択しなければならない。 In this sense, the possibility of using images by photographs is high, but it is still a language barrier to communicate and take pictures when foreigners visit Japan or when foreigners visit Japan. It is not easy. Conventionally, various proposals have been made for translations or the like for solving this language problem. However, even if a high-performance translator appears, the number of languages is large, and a corresponding language must be selected from a plurality of languages at the place of communication.

そこで、言語選択についても種々提案があり、例えば、特許文献1には、動画の記録時や再生時に言語認識を行ない、字幕スーパーを付すことのできる画像記録装置が開示されている。この画像記録装置においては、言語認識が自動設定の場合にはUI言語(メニュー画面や各種設定画面での設定に使用する言語)で音声認識を行なうようにしている。 Therefore, various proposals have also been made regarding language selection. For example, Patent Document 1 discloses an image recording apparatus capable of recognizing a language at the time of recording or reproducing a moving image and adding a caption. In this image recording apparatus, when language recognition is automatically set, voice recognition is performed in the UI language (language used for setting on the menu screen and various setting screens).

特開2006−30874号公報JP 2006-30874 A

特許文献1に開示の画像記録装置においては、音声自動認識はUI言語として設定された1つの言語に限られる。コミュニケーションを取りたい相手の言語が不明の場合には、言語認識を行うことができない。また、特許文献1に開示の画像記録装置においては、手動で言語の選択を行なうことができるが、これではユーザーにモード設定に操作を強いるので、余計な操作が必要となり、音声機能等を利用したコミュニケーションは困難であった。 In the image recording apparatus disclosed in Patent Document 1, automatic speech recognition is limited to one language set as the UI language. If the language of the person you want to communicate with is unknown, language recognition cannot be performed. In addition, in the image recording apparatus disclosed in Patent Document 1, it is possible to manually select a language. However, this forces the user to operate the mode setting, which requires extra operations and uses a voice function or the like. Communication was difficult.

本願発明は、コミュニケーションをとる相手の表情に応じてメッセージを変えることのできるガイド装置およびガイド方法を提供することを目的とする。 An object of the present invention is to provide a guide device and a guide method capable of changing a message in accordance with the facial expression of a partner with whom communication is performed.

上記目的を達成するため第1の発明に係わるガイド装置は、複数のガイド情報を記憶するガイド情報記憶部と、上記ガイド情報記憶部から読み出された上記ガイド情報を表示する表示部と、上記ガイド情報を観察する対象人物の表情をモニタする撮像部と、上記撮像部によってモニタされた対象人物の表情を判定する表情判定部と、上記ガイド情報の表示中に、上記表情判定部によって判定された上記対象人物の表情に応じて上記対象人物に対するメッセージを決定し、上記対象人物に上記メッセージを表示する表示制御部と、を具備する。   In order to achieve the above object, a guide device according to a first invention includes a guide information storage unit that stores a plurality of guide information, a display unit that displays the guide information read from the guide information storage unit, and An imaging unit that monitors the facial expression of the target person observing the guide information, a facial expression determination unit that determines the facial expression of the target person monitored by the imaging unit, and the facial expression determination unit that is determined while the guide information is displayed. A display control unit that determines a message for the target person according to the facial expression of the target person and displays the message on the target person.

第2の発明に係わるガイド装置は、上記第1の発明において、上記メッセージは、上記撮像部で得られた画像の色や上記表情判定部によって判定された顔情報の特徴によって決定する。
第3の発明に係わるガイド装置は、上記第1の発明において、上記表示制御部は、上記表情判定部による判定結果に応じて、上記メッセージを決定した理由を説明する。
In the guide device according to a second aspect of the present invention, in the first aspect, the message is determined by the color of the image obtained by the imaging unit and the feature of the face information determined by the facial expression determination unit.
In the guide device according to a third aspect of the present invention, in the first aspect, the reason why the display control unit determines the message according to the determination result by the facial expression determination unit will be described.

第4の発明に係わるガイド装置は、上記第1の発明において、上記メッセージ内容を表示するに先だって、異なるガイド情報を表示し、上記表情判定部の判定結果に基づいて、上記対象人物の心理を推定する推定部を有し、この推定された結果によってコミュニケーションを図る。   In the first invention, the guide device according to the fourth invention displays different guide information prior to displaying the message content, and based on the determination result of the facial expression determination unit, the psychology of the target person is displayed. An estimation unit for estimation is provided, and communication is performed based on the estimation result.

第5の発明に係わるガイド装置は、上記第4の発明において、上記推定部は、異なる言語のガイド情報を表示した際に上記表情判定部による判定結果に基づいて、上記対象人物の使用言語を推定し、上記表示制御部は、上記推定部によって推定された使用言語で上記メッセージを表示する。   In the guide device according to a fifth aspect based on the fourth aspect, the estimation unit determines the language used by the target person based on the determination result by the facial expression determination unit when displaying guide information in a different language. Then, the display control unit displays the message in the language used estimated by the estimation unit.

第6の発明に係わるガイド装置は、上記第4の発明において、さらに、音声を取り込むマイクを有し、上記推定部は、取り込んだ上記音声の調子またはタイミングに基づいて言語を推定する。
第7の発明に係わるガイド装置は、上記第1の発明において、上記表示部は、視覚的または聴覚的に表示を行う。
The guide device according to a sixth aspect of the present invention is the above-described fourth aspect of the present invention, further comprising a microphone that captures voice, and the estimation unit estimates a language based on the tone or timing of the captured voice.
In the guide device according to a seventh aspect of the present invention, in the first aspect, the display unit displays visually or audibly.

第8の発明に係わるガイド装置は、言語ガイド情報に対する対象人物の表情や音声を検出する検出部と、上記言語ガイド情報の表示中に、上記検出結果に応じて上記対象人物に対する言語を推定する言語推定部と、上記言語推定部によって推定された使用言語によるコミュニケーション用のフレーズを決定する決定部と、を具備する。   A guide device according to an eighth aspect of the invention estimates a language for the target person according to the detection result while displaying the language guide information and a detection unit that detects the facial expression and voice of the target person with respect to the language guide information. A language estimation unit; and a determination unit that determines a communication phrase in a language used estimated by the language estimation unit.

第9の発明に係わるガイド装置は、ガイド情報を表示し、上記ガイド情報を観察する対象人物の表情をモニタし、モニタされた上記対象人物の表情を判定し、上記ガイド情報の表示中に、上記判定された上記対象人物の表情に応じて上記対象人物に対するメッセージを決定する。   A guide device according to a ninth aspect of the present invention displays guide information, monitors the facial expression of the target person observing the guide information, determines the monitored facial expression of the target person, and displays the guide information while displaying the guide information. A message for the target person is determined according to the determined facial expression of the target person.

本発明によれば、コミュニケーションをとる相手の表情に応じてメッセージを変えることのできるガイド装置およびガイド方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the guide apparatus and guide method which can change a message according to the other party's facial expression which communicates can be provided.

本発明の一実施形態に係わるカメラとその周辺のブロック図である。1 is a block diagram of a camera and its surroundings according to an embodiment of the present invention. 本発明の一実施形態に係わるカメラの使用方法を示す図であり、(a)は被写体(相手方)の使用言語を判定する場面であり、(b)は使用言語決定後に、撮影にあたっての掛け声を発生している場面の図である。It is a figure which shows the usage method of the camera concerning one Embodiment of this invention, (a) is a scene which determines the use language of a to-be-photographed object (the other party), (b) is a call for photography after determination of a use language. It is a figure of the scene which has generate | occur | produced. 本発明の一実施形態に係るカメラの撮影方法を示す図であり、(a)は一緒撮影モードを示し、(b)モデル撮影モードを示す。It is a figure which shows the imaging | photography method of the camera which concerns on one Embodiment of this invention, (a) shows together imaging | photography mode and (b) shows model imaging | photography mode. 本発明の一実施形態に係るカメラの外観を示す図であり、(a)は撮影時のスルー画もしくは再生画像時の表示を示している外観図であり、(b)は関連するフレーズを併せて表示する状態の外観図である。It is a figure which shows the external appearance of the camera which concerns on one Embodiment of this invention, (a) is an external view which shows the display at the time of the through image at the time of imaging | photography, or a reproduction image, (b) is also related phrases. FIG. 本発明の一実施形態に係るカメラの撮影レンズ2を透過する被写体像と撮像素子3の撮像面との関係を示す図である。FIG. 4 is a diagram illustrating a relationship between a subject image that passes through a photographing lens 2 of a camera according to an embodiment of the present invention and an imaging surface of an image sensor 3. 本発明の一実施形態において、被写体の笑顔と困った顔を比較する図であり、(a)は笑顔を示し、(b)は困った顔を示す。In one Embodiment of this invention, it is a figure which compares the smile of a to-be-photographed object and a troubled face, (a) shows a smile, (b) shows a troubled face. 本発明の一実施形態に係るカメラにおける笑顔度を測定するためのフローチャートである。It is a flowchart for measuring the smile degree in the camera which concerns on one Embodiment of this invention. 本発明の一実施形態において、被写体が頷くときと否定するときの顔を比較する図であり、(a)は顔の正面図であり、(b)は頷くときの顔であり、(c)は否定するときの顔である。In one Embodiment of this invention, it is a figure which compares the face when a subject is depressing and when it denies, (a) is a front view of a face, (b) is a face when whispering, (c) Is the face when denying. 本発明の一実施形態に係るカメラにおける肯定度を測定するためのフローチャートである。It is a flowchart for measuring the affirmation degree in the camera which concerns on one Embodiment of this invention. 本発明の一実施形態において、言語を推定するときの各言語に対する笑顔度および肯定度の一例を示すグラフである。In one Embodiment of this invention, it is a graph which shows an example of the smile degree and affirmation degree with respect to each language when estimating a language. 本発明の一実施形態に係るカメラにおけるカメラの制御動作を示すためのフローチャートである。It is a flowchart for showing the control operation of the camera in the camera concerning one embodiment of the present invention. 本発明の一実施形態に係るカメラにおけるカメラの制御動作を示すためのフローチャートである。It is a flowchart for showing the control operation of the camera in the camera concerning one embodiment of the present invention. 本発明の一実施形態に係るサーバーにおける画像管理の動作を示すためのフローチャートである。6 is a flowchart illustrating an image management operation in the server according to the embodiment of the present invention. 本発明の一実施形態に係るカメラの撮影レンズの変形例を示す断面図であり、(a)は複眼レンズとプリズムの組み合わせであり、(b)は複眼レンズとプリズムの組み合わせであり、(c)は凸面反射鏡を利用した変形例である。It is sectional drawing which shows the modification of the imaging lens of the camera which concerns on one Embodiment of this invention, (a) is the combination of a compound eye lens and a prism, (b) is the combination of a compound eye lens and a prism, (c ) Is a modification using a convex reflecting mirror.

以下、図面に従って本発明のガイド装置を適用したカメラを用いて好ましい実施形態について説明する。本実施形態においては、撮影に先立って、「日本語にしますか」「英語にしますか」・・と相手に言語を選んでもらう時の相手の表情に従って言語を決定するようにしている。そして決められた言語による案内を用いて、カメラ撮影を行なうことができるようにしている。これによって言葉が通じない外国の方と写真を通じてコミュニケーションすることができる。また、相手に余計な操作を強いることなく、一緒に撮影を行ったり、撮影画像にカメラ所有者の言語と相手の言語でコメントを付与し、両者が撮影された画像をネット上で検索できるようにしている。 Hereinafter, a preferred embodiment will be described using a camera to which a guide device of the present invention is applied according to the drawings. In this embodiment, prior to shooting, the language is determined in accordance with the partner's facial expression when the partner selects a language such as “Do you want to use Japanese?” Or “Do you want to use English?”. Camera guidance can be performed using guidance in a predetermined language. This makes it possible to communicate with foreigners who do not understand the language through photos. Also, you can shoot together without compromising the other party, or add comments to the captured image in the language of the camera owner and the partner's language so that you can search for images taken by both I have to.

図1は、本発明の一実施形態に係わるデジタルカメラとその周辺のブロック図である。このカメラ100は平板型(図2参照)をしており、平板上に、魚眼レンズ等の広角レンズからなる撮影レンズ2を設け、広い範囲の撮影を可能としている。これは、撮影者自身をも撮影可能とするためである。ユーザーが使用するカメラ100には、撮影レンズ2、AF(オートフォーカス)制御部2a、絞り2b、絞り制御部2c、撮像素子3、アナログフロントエンド(以下、AFEと略す)部4が設けられている。撮影レンズ2は、内部にフォーカスレンズを有し、入射した被写体20の像を撮像素子3上に結像させる。 FIG. 1 is a block diagram of a digital camera and its surroundings according to an embodiment of the present invention. The camera 100 is a flat plate type (see FIG. 2), and a photographing lens 2 composed of a wide-angle lens such as a fisheye lens is provided on the flat plate to enable photographing over a wide range. This is because the photographer himself can photograph. A camera 100 used by a user includes a photographic lens 2, an AF (autofocus) control unit 2a, an aperture 2b, an aperture control unit 2c, an image sensor 3, and an analog front end (hereinafter referred to as AFE) unit 4. Yes. The taking lens 2 has a focus lens inside, and forms an image of the incident subject 20 on the image sensor 3.

AF制御部2aは、撮影レンズ2の合焦位置を、後述する画像処理部5内において画像処理を行い、いわゆる山登り法により検出し、フォーカスレンズを駆動して、合焦位置に移動させる。なお、山登り法は、撮影画像のコントラスト信号ピークから合焦位置(ピント位置)を検出する方式であるが、山登り法以外にも、例えば位相差法や三角測距法等公知の合焦方法に置き換えてもよい。AFによって合焦位置に達すると、このときの撮影レンズ2を検出することにより、距離判定を行うことができる。この場合、撮影レンズ2がズームレンズのときには、ズーム位置等を加味して距離の判定を行う。 The AF control unit 2a performs image processing in an image processing unit 5 to be described later, detects an in-focus position of the photographic lens 2, detects it by a so-called hill-climbing method, drives the focus lens, and moves it to the in-focus position. Note that the hill-climbing method is a method for detecting the in-focus position (focus position) from the contrast signal peak of the photographed image. In addition to the hill-climbing method, for example, a known focusing method such as a phase difference method or a triangulation method can be used. It may be replaced. When the in-focus position is reached by AF, the distance can be determined by detecting the photographing lens 2 at this time. In this case, when the photographing lens 2 is a zoom lens, the distance is determined in consideration of the zoom position and the like.

撮影レンズ2内または近傍に、シャッタや絞りの効果を奏する絞り2bが設けられる。絞り2bは、撮影時に所定の口径まで開き、露出が終了すると閉じて露光を終了させるものである。絞り制御部2cは、絞り2bを駆動して絞り径を設定する。この絞りを変えることによって、レンズの被写界深度が変化するので、背景のぼけ具合などを調整して、被写体を浮かび上がらせたり、背景をしっかりと描写したりするなど、表現の切り替えを行うことができる。撮像素子3は、多数の受光面(画素)からなるCCDやCMOSセンサ等であり、撮影レンズ2を介して被写体20からの像を受光しこれを画像信号に変換する。 A diaphragm 2b that provides the effects of a shutter and a diaphragm is provided in or near the photographing lens 2. The diaphragm 2b is opened to a predetermined aperture at the time of photographing, and is closed when the exposure is finished to finish the exposure. The aperture control unit 2c drives the aperture 2b to set the aperture diameter. By changing the aperture, the depth of field of the lens changes, so you can change the expression by adjusting the blurring of the background, etc. Can do. The image pickup device 3 is a CCD or CMOS sensor having a large number of light receiving surfaces (pixels), and receives an image from the subject 20 via the photographing lens 2 and converts it into an image signal.

アナログフロントエンド(AFE)部4は、アナログデジタル(AD)変換手段を含み、撮像素子3からの信号をデジタル信号化する。そして、AFE部4は、撮像素子3から出力される画像信号について各種処理を行う。また、AFE部4には、撮像素子3のいくつかの画素をまとめて、一括して読み出す機能も設けられている。たとえば、4画素(2×2)や9画素(3×3)など、各画素の信号レベルが小さいときには、いくつかの画素信号を加算して、S/Nを向上させることができ、また、感度を上げることも出来る。 The analog front end (AFE) unit 4 includes analog-digital (AD) conversion means, and converts a signal from the image sensor 3 into a digital signal. The AFE unit 4 performs various processes on the image signal output from the image sensor 3. The AFE unit 4 is also provided with a function of reading several pixels of the image pickup device 3 together and reading them together. For example, when the signal level of each pixel is small, such as 4 pixels (2 × 2) and 9 pixels (3 × 3), several pixel signals can be added to improve the S / N. Sensitivity can also be increased.

このような操作によって感度を上げることができ、シャッタスピードを速くする等、撮影上の工夫が可能となる。シャッタスピードが速いと、動いている被写体が止まっているように撮影することが可能となる。 Sensitivity can be increased by such an operation, and it is possible to devise photography such as increasing the shutter speed. When the shutter speed is high, it is possible to shoot as if the moving subject is stopped.

また、AFE部4は、撮像素子3の出力する信号を取捨選択する機能を有し、受光範囲の中から限られた範囲の画像データを抽出することが出来る。一般に撮像素子3の画素から間引いた画素信号を抽出する場合には、高速読出が可能となる。これにより構図確認用の画像信号を、画像処理部5によって高速処理し、表示制御部8aを介して表示パネル8に表示することにより、フレーミングが可能となる。 The AFE unit 4 has a function of selecting signals output from the image sensor 3 and can extract image data in a limited range from the light receiving range. In general, when pixel signals thinned out from the pixels of the image sensor 3 are extracted, high-speed reading is possible. Thus, the image signal for composition confirmation is processed at high speed by the image processing unit 5 and displayed on the display panel 8 via the display control unit 8a, thereby enabling framing.

AFE部4の出力は、画像処理部5に接続されている。画像処理部5は、入力信号の色や階調やシャープネスを補正処理する。また、撮像素子3から得られた画像信号を所定のレベルに増幅して、正しい濃淡、正しい灰色レベルに設定する増感部を有している。これは、デジタル化された信号レベルが、所定レベルになるようにデジタル演算するものである。また、画像処理部5は、スルー画像(ライブ画像とも言う)をリアルタイムに表示部に表示できるように、撮像素子3からの信号を表示パネル8に表示できるようなサイズに加工するリサイズ部を有する。この働きによって、撮影に先立って撮像素子に入射する像を確認でき、これを見ながら撮影時のタイミングやシャッタチャンスを決定することが出来る。 The output of the AFE unit 4 is connected to the image processing unit 5. The image processing unit 5 corrects the color, gradation, and sharpness of the input signal. Further, it has an intensifying unit that amplifies the image signal obtained from the image sensor 3 to a predetermined level and sets the correct gray level and the correct gray level. This is a digital operation so that the digitized signal level becomes a predetermined level. In addition, the image processing unit 5 includes a resizing unit that processes a signal from the image sensor 3 to a size that can be displayed on the display panel 8 so that a through image (also referred to as a live image) can be displayed on the display unit in real time. . By this function, an image incident on the image sensor can be confirmed prior to shooting, and the timing and photo opportunity at the time of shooting can be determined while viewing this.

また、この画像処理部5の信号を利用して、撮像素子3から入力されてくる画像の特徴などを判定する画像判定機能を有している。例えば、画像情報を加工して得られる輪郭情報から、撮像しているものの形状を検出する形状判定部5a、また、画像の特徴を調べて、主要被写体の位置を検出する顔検出手段5dなどが、このシステムには含まれている。これは、写真撮影時に、ユーザーがどのような写真を撮ろうとしているかを判定して、撮影制御を最適化するためのものである。 In addition, the image processing unit 5 has an image determination function for determining characteristics of an image input from the image sensor 3 by using a signal from the image processing unit 5. For example, a shape determination unit 5a that detects the shape of what is being imaged from the contour information obtained by processing the image information, and a face detection unit 5d that checks the characteristics of the image and detects the position of the main subject. Included in this system. This is for optimizing the shooting control by determining what kind of photo the user is going to take at the time of shooting.

また、画像処理部5は、前述した画像のコントラストを判定する機能を有し、撮影レンズのピント合わせ手段との連動で、オートフォーカスの制御を行う。撮影レンズ2のピント合わせ時のレンズ位置の情報によって、被写体の距離や、背景の距離などが判定できる。 The image processing unit 5 has a function of determining the contrast of the image described above, and controls autofocus in conjunction with the focusing unit of the photographic lens. The distance of the subject, the distance of the background, and the like can be determined based on the information on the lens position when the photographing lens 2 is focused.

この撮影レンズ2は、魚眼レンズのような広角レンズであるので、図5に示すように、円形で示す広い領域の映像範囲51に被写体像が結像し、撮影可能である。しかし、周辺部の撮影記録範囲52の画像は、図示の如く扇型の大きな歪みを生じてしまう。そこで、画像処理部5内の歪み補正部5bにおいて、図示の如く歪のない矩形画像53に補正する。本実施形態においては、撮影レンズ2で撮影し得る画像のすべてを記録するのではなく、このように、一部の画像(撮影記録範囲52の画像)を取り出して記録し、他の画像部分は、別の操作時に利用している。また、この撮像結果を利用して、後述するように、顔の表情なども読み取る。なお、撮影レンズ2に代えて、後述する図14に示すような複数のレンズやプリズムを利用して、広い範囲を撮影可能としてもよい。 Since the photographing lens 2 is a wide-angle lens such as a fish-eye lens, as shown in FIG. 5, a subject image is formed in a wide image range 51 indicated by a circle and can be photographed. However, the image in the peripheral recording / recording range 52 causes a large fan-shaped distortion as shown in the figure. Therefore, the distortion correction unit 5b in the image processing unit 5 corrects the image to a rectangular image 53 having no distortion as illustrated. In the present embodiment, not all the images that can be photographed by the photographing lens 2 are recorded, but a part of the images (images in the photographing recording range 52) is taken out and recorded in this way, and the other image parts are It is used during another operation. Also, using this imaging result, the facial expression and the like are read as will be described later. Note that a wide range may be photographed by using a plurality of lenses and prisms as shown in FIG.

また、画像処理部5には、撮像素子3によって得られた顔画像から、顔の表情を判定する表情判定部5cが接続されている。表情判定部5cによって、撮影以外の状況判定や被写体の意思までを判定することができる。すなわち、カメラ100は、後述するように、多言語辞書のデータベース部12を有しており、これから所定の会話フレーズを読み出して音声発生部14で音声として順次、言語を変えながら出力したり、表示部8に順次表示したりして、それを見たときの顔の表情変化によって、どの言語が一番、通じる言葉であるかを判定できる。この言語の選択は、表情判定部5cの出力を用いて行なっている。また、言語情報を利用して、画像の適切な整理を行なえるようにしている。すなわち、撮影された人が外国の人である場合、日本語での画像検索は困難なので、撮影された人の使う言語で画像の整理を可能としている。 In addition, the image processing unit 5 is connected to a facial expression determination unit 5c that determines facial expression from a facial image obtained by the image sensor 3. The facial expression determination unit 5c can determine the situation determination other than the shooting and the intention of the subject. That is, as will be described later, the camera 100 has a database unit 12 of a multilingual dictionary, from which a predetermined conversation phrase is read out and output as a voice by the voice generation unit 14 while changing the language, or displayed. It is possible to determine which language is the most common word by changing the facial expression when it is displayed sequentially on the part 8 and when it is viewed. This language selection is performed using the output of the facial expression determination unit 5c. In addition, language information can be used to appropriately organize images. That is, when the photographed person is a foreign person, it is difficult to search for images in Japanese, so that the images can be organized in the language used by the photographed person.

カメラ100には、圧縮部6、記録部9a、記録メディア9、データ送受信部9c、表示パネル8、表示制御部8a、辞書/カメラ表示切替部8b、バックライト(BL)8c、バックライト(BL)制御部8d、多言語辞書部12が設けられている。圧縮部6は、撮影時に画像処理部5から出力された信号を圧縮する。圧縮部6内には、MPEG(Moving Picture Experts Group)4やH.264などの圧縮用コア部で構成される動画用の圧縮部及び JPEG(Joint
Photographic Experts Group)コア部など静止画像用の圧縮部が設けられる。また、圧縮部6は記録メディア9に記録されている画像を表示パネル8に再生する際には、画像伸張も行なう。
The camera 100 includes a compression unit 6, a recording unit 9a, a recording medium 9, a data transmission / reception unit 9c, a display panel 8, a display control unit 8a, a dictionary / camera display switching unit 8b, a backlight (BL) 8c, and a backlight (BL ) A control unit 8d and a multilingual dictionary unit 12 are provided. The compression unit 6 compresses the signal output from the image processing unit 5 at the time of shooting. The compression unit 6 includes MPEG (Moving Picture Experts Group) 4 and H.264. A compression unit for moving images composed of a compression core unit such as H.264 and JPEG (Joint
A still image compression unit such as a Photographic Experts Group) core unit is provided. The compression unit 6 also performs image expansion when reproducing an image recorded on the recording medium 9 on the display panel 8.

記録部9aは、圧縮された画像信号を記録メディア9に記録する。記録メディア9はカメラに着脱可能な保存用の記録媒体である。なお、画像信号の記録にあたっては、前述の圧縮された画像データのほか、撮影時間等の付随データも併せて記録される。撮影時間情報は、後述するMPU1内の時計部1tによって計測されており、MPU1は画像と関連付を行なう。 The recording unit 9 a records the compressed image signal on the recording medium 9. The recording medium 9 is a storage recording medium that can be attached to and detached from the camera. In recording the image signal, in addition to the compressed image data described above, accompanying data such as the shooting time is also recorded. The shooting time information is measured by a clock unit 1t in the MPU 1 described later, and the MPU 1 associates with the image.

記録メディア9や記録部9aに記録された撮影画像データは、RFIDのようなICカードやワイヤレスLANなどの技術を利用した無線データ送受信部9cによって、インターネット32経由で、他の機器、例えば、画像を管理するサーバー34等の他の機器に転送することができる。サーバー34に送信した画像は、第三者31にすぐ見せることができ、画像を見ながらのコミュニケーションの促進が可能となっている。また、このインターネット32には、翻訳サービスを行なう翻訳サービスサーバー33が接続されている。 The captured image data recorded on the recording medium 9 or the recording unit 9a is transmitted to another device such as an image via the Internet 32 by the wireless data transmitting / receiving unit 9c using a technology such as an IC card such as RFID or a wireless LAN. Can be transferred to another device such as the server 34 that manages the server. The image transmitted to the server 34 can be immediately shown to the third party 31, and communication can be promoted while viewing the image. The Internet 32 is connected to a translation service server 33 that performs a translation service.

表示パネル8は、例えば液晶や有機EL等から構成され、この表示パネル8の裏面には白色LEDなどのバックライト8cが配置されており、このバックライト8cはバックライト(BL)制御部8dに接続され、これによって制御される。バックライト8cからの光を表示パネル8に照射することにより、表示パネル8の視認性を向上することができ、また、見えが悪い場合には、ユーザーの操作によりBL制御部8dは明るさを増すように制御する。 The display panel 8 is composed of, for example, a liquid crystal or an organic EL, and a backlight 8c such as a white LED is disposed on the back surface of the display panel 8. The backlight 8c is connected to a backlight (BL) control unit 8d. Connected and controlled by this. By irradiating the display panel 8 with the light from the backlight 8c, the visibility of the display panel 8 can be improved. When the appearance is poor, the BL control unit 8d controls the brightness by the user's operation. Control to increase.

また、後述するMPU1には多言語辞書のデータベース部12が接続されており、この多言語辞書データベース12は、旅行の際によく用いられる所定の会話フレーズ等を多言語に対応して記憶している。この多言語による会話フレーズ等は、表示パネル8に表示される。このため表示制御部8a内には、辞書/カメラ表示切替部8bが設けられている。この辞書/カメラ表示切替部8bは、後述するように各種設定状態に応じて、液晶パネル8における辞書表示とカメラ表示の切り替えを行なう。 Also, a multilingual dictionary database unit 12 is connected to the MPU 1 to be described later, and this multilingual dictionary database 12 stores predetermined conversation phrases and the like that are often used during travel in correspondence with multilinguals. Yes. These multilingual conversation phrases and the like are displayed on the display panel 8. Therefore, a dictionary / camera display switching unit 8b is provided in the display control unit 8a. The dictionary / camera display switching unit 8b switches between dictionary display and camera display on the liquid crystal panel 8 in accordance with various setting states, as will be described later.

したがって、表示パネル8は、撮影時には被写体観察用に被写体画像を表示し、再生時には伸張処理された撮影画像を表示し、また、辞書表示時には会話フレーズ等を表示する。なお、表示パネル8には、撮影して送信済み画像を一覧表示して、そこからサーバー34が運営するブログサービスなどにアップする画像や、アップして、ブログに表示する時のレイアウトを選択できるようにしてもよい。 Therefore, the display panel 8 displays a subject image for observing the subject at the time of photographing, displays a stretched photographed image at the time of reproduction, and displays a conversation phrase or the like when the dictionary is displayed. The display panel 8 displays a list of images that have been taken and transmitted, and from there, an image to be uploaded to a blog service or the like operated by the server 34, or a layout for uploading and displaying the image on a blog can be selected. You may do it.

カメラ100には、補助光発光部11、MPU(Micro Processing Unit)1、レリーズスイッチ1a(なお、1aはレリーズ釦を意味することもある)、モード切替スイッチ1b、他のスイッチ1cが設けられている。 The camera 100 is provided with an auxiliary light emitting unit 11, an MPU (Micro Processing Unit) 1, a release switch 1a (1a may also mean a release button), a mode switch 1b, and another switch 1c. Yes.

補助光発光部11は、白色LEDやXe放電発光管を有し、電流量で光量が制御できるようになっている。状況に応じて被写体20に光を照射して、明るさの不足や不均一な明るさを防止する。また、この補助光は、後述するように、被写体以外に対しても照明を行ない、モード切替の際の判定に使用する。また、MPU1には、音声発生部14が設けられており、多言語辞書データベース12から読み出された会話フレーズに従って音声を発生するためのスピーカーが接続されている。 The auxiliary light emitting unit 11 includes a white LED and a Xe discharge light emitting tube, and the amount of light can be controlled by the amount of current. Depending on the situation, the subject 20 is irradiated with light to prevent lack of brightness and uneven brightness. Further, as will be described later, this auxiliary light also illuminates other than the subject and is used for determination at the time of mode switching. Further, the MPU 1 is provided with a sound generation unit 14 and connected to a speaker for generating sound according to the conversation phrase read from the multilingual dictionary database 12.

MPU1は、カメラ全体の制御を司る制御手段である。レリーズスイッチ1a、モード切替スイッチ1b、他のスイッチ1cおよびプログラム等を記憶したROM(不図示)が、MPU1に接続される。MPU1内には、前述したように、日や時刻を検出するための時計部1tが設けられており、写真の撮影日時を検出し、撮影画像と関連付けを行う。なお、スイッチ1b、1cは、スイッチを総称的に表示したものであって、実際には多数のスイッチ群から構成されている。 The MPU 1 is a control unit that controls the entire camera. A release switch 1a, a mode switch 1b, another switch 1c, and a ROM (not shown) storing a program and the like are connected to the MPU 1. As described above, the MPU 1 is provided with the clock unit 1t for detecting the date and time, and detects the shooting date and time of the photograph and associates it with the captured image. Note that the switches 1b and 1c are generically displayed switches, and are actually composed of a large number of switch groups.

各スイッチ1a〜1cは、ユーザーの操作を検出して、その結果をマイクロコントローラからなる演算制御手段であるMPU1に通知する。MPU1が、これらのスイッチの操作に従って動作を切り換える。これらのスイッチの操作に従って、撮影/再生のモード切替や撮影モードの切替、画像送信の設定、キーワード選択、会話フレーズ選択なども行えるようになっている。また、MPU1は撮影時には、AF制御部2aや絞り制御部2c等の制御を行う撮影制御部として機能する。また、画像の再生機能、辞書機能等の各種機能の切り替えを行う。 Each switch 1a-1c detects a user's operation, and notifies the result to MPU1 which is a calculation control means consisting of a microcontroller. The MPU 1 switches the operation according to the operation of these switches. According to the operation of these switches, shooting / playback mode switching, shooting mode switching, image transmission setting, keyword selection, conversation phrase selection, and the like can be performed. Further, the MPU 1 functions as a shooting control unit that controls the AF control unit 2a, the aperture control unit 2c, and the like during shooting. Also, various functions such as an image reproduction function and a dictionary function are switched.

次に、図2ないし図4を用いて、カメラ100の外観構造と使用方法について説明する。まず、このカメラ100の外観は、図3および図4の示すように、本体部10の上面に、魚眼レンズで構成される撮影レンズ2と、表示用の表示パネル8と、レリーズボタン1aが設けられている。また、本体部10には、言語名や会話フレーズ等を音声合成で再生するスピーカー等からなる音声発生部14が設けられている。本体部10の側部側には、補助光発光部11が設けられている。 Next, the external structure and usage method of the camera 100 will be described with reference to FIGS. First, as shown in FIGS. 3 and 4, the appearance of the camera 100 is provided with a photographing lens 2 composed of a fisheye lens, a display panel 8 for display, and a release button 1a on the upper surface of the main body 10. ing. Further, the main body unit 10 is provided with a sound generation unit 14 including a speaker or the like for reproducing a language name, a conversation phrase, or the like by voice synthesis. An auxiliary light emitting unit 11 is provided on the side of the main body 10.

撮影レンズ2は、図3(a)(b)に示すように、表示パネル8の面に対して、ほぼ垂直方向が光軸となるように、カメラ100の本体部10に取り付けられている。この撮影レンズ2に対して、矢印16はユーザー21と本実施形態に係わるガイド装置によってコミュニケーションをとる被写体20(相手方)の両者を一緒にとるときの撮影方向である。また、矢印17は、被写体(相手方)20をモデルとして撮影する場合の撮影方向である。また、矢印23、24は、表示パネル8のバックライト8cによるユーザー21および相手方20への照射光の方向を示している。矢印25(図3(b))は、補助発光部11による照射方向を示している。 As shown in FIGS. 3A and 3B, the photographing lens 2 is attached to the main body 10 of the camera 100 so that the optical axis is substantially perpendicular to the surface of the display panel 8. With respect to the photographing lens 2, an arrow 16 indicates a photographing direction when the user 21 and the subject 20 (the other party) who communicates with each other by the guide device according to the present embodiment are taken together. An arrow 17 indicates a shooting direction when shooting using the subject (partner) 20 as a model. Arrows 23 and 24 indicate directions of light irradiated to the user 21 and the counterpart 20 by the backlight 8c of the display panel 8. An arrow 25 (FIG. 3B) indicates an irradiation direction by the auxiliary light emitting unit 11.

撮影レンズ2は魚眼レンズのような広角レンズによって構成されているので、撮影レンズ2によって、図5に示す映像範囲51に相当する画像が結像される。この映像範囲に対して、撮像素子3は撮像範囲54の画像について光電変換できる。撮影記録範囲52は、前述したように光学的に歪んでいるが、画像処理部5内の歪み補正部によって矩形53に補正される。また、撮影レンズ2に対して、モデルとしての被写体20の撮影方向が矢印25の場合には、モデル撮影範囲56で画像が形成される。補助光発光部11と表示パネル8のバックライト8cによる補助光範囲55は、撮影記録範囲52とモデル撮影範囲56をカバーする領域である。 Since the photographing lens 2 is composed of a wide-angle lens such as a fish-eye lens, an image corresponding to the video range 51 shown in FIG. The image sensor 3 can photoelectrically convert the image in the imaging range 54 with respect to this video range. The shooting / recording range 52 is optically distorted as described above, but is corrected to the rectangle 53 by the distortion correction unit in the image processing unit 5. Further, when the shooting direction of the subject 20 as a model is the arrow 25 with respect to the shooting lens 2, an image is formed in the model shooting range 56. An auxiliary light range 55 by the auxiliary light emitting unit 11 and the backlight 8 c of the display panel 8 is an area that covers the photographing recording range 52 and the model photographing range 56.

本実施形態においては、撮影レンズ2によって映像範囲51の画像が得られるが、撮影に当たっては、画像の一部しか使わない。すなわち、ユーザー21と被写体(相手方)20が一緒に撮影する場合には、撮影記録範囲52の画像を使用する。また、被写体(相手方)20を撮影する場合には、モデル撮影範囲56の画像を使用する。したがって、補助光の照射範囲は、撮影記録範囲52+α、またはモデル撮影範囲56+αの領域を照射できればよい。後述するように、図2のように、カメラ100の近くにユーザー21および被写体(相手方)20が存在する場合には、表示パネル8のバックライト8cの光を利用すればよい。 In the present embodiment, an image in the video range 51 is obtained by the photographing lens 2, but only a part of the image is used for photographing. That is, when the user 21 and the subject (the other party) 20 photograph together, the image in the photographing recording range 52 is used. Further, when photographing the subject (the other party) 20, an image in the model photographing range 56 is used. Accordingly, the irradiation range of the auxiliary light only needs to be able to irradiate the shooting recording range 52 + α or the model shooting range 56 + α. As will be described later, when the user 21 and the subject (the other party) 20 exist near the camera 100 as shown in FIG. 2, the light from the backlight 8c of the display panel 8 may be used.

このようなガイド装置を有するカメラ100において、会話フレーズを使用する辞書モードとカメラモードを切り替える方法について説明する。図2は撮影に先立って、カメラ100を利用してユーザー21が、被写体20とコミュニケーションを取っているところを示している。ユーザー21のカメラ操作によって、音声発生部14からは、順次、世界各国の代表的な言語で、「この言葉でいいですか」という内容の音声を再生する。撮影レンズ2は前述したように魚眼レンズ等の広角レンズで、モニタ範囲22の像を捉えることができる。そして、この時の被写体の人物の表情は、撮影レンズ2を通して撮像素子3の撮像記録範囲52から画像信号に基づいてモニタされている。なお、音声発生部14から音声の代わりに、または音声と共に表示パネル8に、おなじ言葉を順次表示するようにしてもよい。 A method of switching between the dictionary mode using the conversation phrase and the camera mode in the camera 100 having such a guide device will be described. FIG. 2 shows that the user 21 is communicating with the subject 20 using the camera 100 prior to shooting. By the camera operation of the user 21, the sound generation unit 14 sequentially reproduces the sound of the content “Is this word OK” in the representative languages of the world. As described above, the photographing lens 2 is a wide-angle lens such as a fisheye lens, and can capture an image in the monitor range 22. Then, the facial expression of the subject person at this time is monitored based on the image signal from the imaging recording range 52 of the imaging element 3 through the photographing lens 2. The same words may be sequentially displayed on the display panel 8 instead of the voice from the voice generation unit 14 or together with the voice.

このように表情をモニタしていると、被写体(相手方)20が分かる言語の再生時には、被写体20の表情が変わる。この表情の変化を認識し、変化したときの言語が、その被写体20が使用する使用言語であると判定する。使用言語が分かると、その使用言語を用いて、図2(b)に示すように、撮影してよいかどうかの質問を行なうことができる。これによって、撮影の許可を得ることが出来る。 When the facial expression is monitored in this way, the facial expression of the subject 20 changes during playback of a language in which the subject (partner) 20 can be understood. This change in facial expression is recognized, and the language at the time of change is determined to be the language used by the subject 20. When the language used is known, it is possible to make a question as to whether or not photographing can be performed using the language used, as shown in FIG. As a result, permission for photographing can be obtained.

コミュニケーションをとるにあたっては、表情の変化だけでなく、仕草の変化等を検出するようにしてもよい。また、マイクを設け、被写体20の返答の調子やタイミング等を補助的に用いて、被写体20が使用している言語を推定するようにしてもよい。 In communication, not only a change in facial expression but also a change in gesture may be detected. In addition, a language may be provided to estimate the language used by the subject 20 by supplementarily using the response tone and timing of the subject 20.

図3(a)は、図2の状態からそのまま、一緒に撮影する場合を示している。なお、カメラ100は側面方向から見た断面図として表示し、各機能の配置を分かりやすく示している。表示パネル8には、撮像結果を表示し(図4(a)参照)、表示パネル8を観察しながら、表情を決めて撮影を行う(「一緒撮影」と称す)。構図と表情がよければ、レリーズ釦1aを操作し、撮影を行う。 FIG. 3A shows a case where the image is taken together from the state of FIG. The camera 100 is displayed as a cross-sectional view seen from the side direction, and the arrangement of each function is shown in an easy-to-understand manner. An imaging result is displayed on the display panel 8 (see FIG. 4A), and while observing the display panel 8, a facial expression is determined and shooting is performed (referred to as “shooting together”). If the composition and expression are good, the release button 1a is operated to take a picture.

周囲が暗い場合には、表示パネル8のバックライト8cを利用して、被写体20を照明するようにしてもよい。照明を行なう時には、撮影のタイミングで表示パネル8の液晶を透過状態にすればよい。また、図2の状態で、そのままの位置で一緒撮影を行わずに、被写体20を一人で撮影する場合には、図3(b)に示すように、撮影レンズ2の広角レンズを利用し、異なる撮影方向17からの像を表示パネル8に表示し、撮影するようにしてもよい。これを「モデル撮影」と称する。 When the surroundings are dark, the subject 20 may be illuminated using the backlight 8c of the display panel 8. When illumination is performed, the liquid crystal of the display panel 8 may be brought into a transmissive state at the timing of photographing. Further, in the state of FIG. 2, when the subject 20 is photographed alone without photographing together at the same position, a wide-angle lens of the photographing lens 2 is used as shown in FIG. Images from different shooting directions 17 may be displayed on the display panel 8 and shot. This is referred to as “model photography”.

このような広角レンズの撮影レンズ2から得られる画像における、一緒記録の範囲とモデル撮影の範囲は、前述したように、それぞれ撮影記録範囲52とモデル撮影範囲56である。広角レンズを使用することから取得画像は、かなり歪みの目立つものである。このため、矩形画像53となるように、画像処理部5の歪み補正部5bによって画像の上の部分は縮めるような補正を行い、通常の写真のように四方形の画像に変換してから表示し、また記録メディア9等に記録を行う。 In the image obtained from the photographing lens 2 having such a wide-angle lens, the recording range and the model photographing range are the photographing recording range 52 and the model photographing range 56, respectively, as described above. Since the wide-angle lens is used, the acquired image is considerably distorted. Therefore, the distortion correction unit 5b of the image processing unit 5 corrects the upper portion of the image to be reduced so that the rectangular image 53 is obtained, and the image is displayed after being converted into a square image like a normal photograph. In addition, recording is performed on the recording medium 9 or the like.

一緒記録の場合には、扇形の部分(撮影記録範囲52)のみを切り出して使うので、撮像素子3は、点線の四方形の撮像範囲54のみをカバーすればよい。また、補助光範囲55も点線の楕円で示した領域をカバーすればよく、広角の全域をカバーする必要はない。 In the case of recording together, since only the fan-shaped portion (shooting and recording range 52) is cut out and used, the imaging device 3 only needs to cover only the dotted quadrilateral imaging range 54. Further, the auxiliary light range 55 only needs to cover the area indicated by the dotted ellipse, and does not need to cover the entire wide-angle range.

こうして撮影された画像には、キーワードをつけて整理するようにしておく。キーワード付けにあたっては、図4(b)に示すように、表示パネル8に符号23で示すように、撮影者(ユーザー)21の国の言葉で決めたキーワードと、被写体20の国の言葉に訳したもの(翻訳時には、先に判定した、被写体の使う言葉の判定結果を利用する)を表示する。これによって、被写体にとっても検索しやすいキーワードとなり、この撮影を行った後、別れてからも、インターネットで各自の日常語にて検索することが可能となり、簡単にこの画像を探すことができる。 Images taken in this way are arranged with keywords. When assigning keywords, as shown in FIG. 4B, the display panel 8 is translated into the keywords determined by the language of the photographer (user) 21 and the language of the subject 20 as indicated by reference numeral 23. (When using translation, the determination result of the word used by the subject is used). As a result, it becomes a keyword that is easy to search for the subject, and after taking the picture, even after parting, it is possible to search each person's daily words on the Internet, and this image can be easily searched.

図2において、被写体20の表情の変化によって、いずれの言語を理解しているかを判定していた。この表情の変化の判定方法について図6を用いて、表情を数値Rに数値化する方法について説明する。図6は、言葉が理解できたときに、人が表す笑顔(a)と、理解できないときの困った顔(b)を比較したものであり、両者を比較すると、眼と口元に特徴があることが分かる。 In FIG. 2, it is determined which language is understood by the change in the expression of the subject 20. A method for determining the expression change will be described with reference to FIG. FIG. 6 is a comparison of a smile (a) that a person represents when the language is understood, and a troubled face (b) when the language cannot be understood. I understand that.

すなわち、眼を比較すると、両目の瞳の中心を結んだ線61の上側に白目が多いと、笑顔に近いことが分かる。また、口元も、同様な考え方で判定できる。つまり、口の両端を結んだ線62より、下側にある唇部の面積が広いと、笑顔の度合いも大きくなる。 In other words, when the eyes are compared, it can be seen that if there are many white eyes above the line 61 connecting the centers of the eyes of both eyes, it is close to a smile. The mouth can also be determined based on the same concept. That is, if the area of the lower lip is larger than the line 62 connecting both ends of the mouth, the degree of smile increases.

図6で示した判定方法を利用して笑顔度Rを求める方法について、図7に示すフローチャートに基づいて説明する。まず、目部と口部の検出を行なう(S151)。これは、撮像素子3の出力に基づいて、顔検出部5dによって顔を検出し、その検出された顔の中から眼と、口の部分をパターン認識により抽出する。 A method of obtaining the smile level R using the determination method shown in FIG. 6 will be described based on the flowchart shown in FIG. First, the eyes and mouth are detected (S151). In this method, a face is detected by the face detection unit 5d based on the output of the image sensor 3, and the eye and mouth are extracted from the detected face by pattern recognition.

続いて、ステップS152からS154において、眼の白目の面積から笑顔度を検出する。まず、両目の瞳を結ぶ線61より上側の白目の面積を測定し、この値をEAとする(S152)。同様に、線61より下側の白目の面積を測定し、この値をEBとする(S153)。次に、こうして得たEA、EBの差を、これらの和で正規化して、すなわち、(EA−EB)/(EA+EB)を求め、数値REを得る(S154)。数値REは大きいほうが、笑顔度が高いと判定される。 Subsequently, in steps S152 to S154, the smile level is detected from the area of the white of the eye. First, the area of the white eye above the line 61 connecting the eyes of both eyes is measured, and this value is set as EA (S152). Similarly, the area of the white eye below the line 61 is measured, and this value is set to EB (S153). Next, the difference between EA and EB obtained in this way is normalized by the sum of these, that is, (EA−EB) / (EA + EB) is obtained to obtain a numerical value RE (S154). It is determined that the larger the numerical value RE, the higher the smile degree.

次に、ステップS155からS157において、唇の面積から笑顔度を検出する。まず、口の両端を結ぶ線62より上側の唇の面積を測定し、この値をLAとする(S155)。同様に、線62より下側の唇の面積を測定し、この値をLBとする(S156)。こうして得たLA、LBの差を、これらの和で正規化して、すなわち、(LB−LA)/(LA+LB)を求め、数値RLを得る(S157)。数値RLは大きいほうが、笑顔度が高いと判定される。 Next, in steps S155 to S157, the smile level is detected from the area of the lips. First, the area of the lips above the line 62 connecting both ends of the mouth is measured, and this value is set as LA (S155). Similarly, the area of the lips below the line 62 is measured, and this value is set as LB (S156). The difference between LA and LB thus obtained is normalized by the sum of these, that is, (LB−LA) / (LA + LB) is obtained to obtain a numerical value RL (S157). It is determined that the larger the numerical value RL, the higher the smile degree.

続いて、ステップS154とS157で得た値REとRLを加算して笑顔度Rを求める(S158)。値Rが大きいほど笑顔に近いことになる。さらに、笑顔度の判定の精度を高めるために、図6(a)の矢印64付近の状態を判定する(S159)。すなわち、口の端部に影があり、歯が見えていれば、笑顔の確率が高いので、それを判定する。判定の結果、歯が見えており、かつ口端部に影があれば、笑顔度Rに1点、加算する(S160)。 Subsequently, the smile level R is obtained by adding the values RE and RL obtained in steps S154 and S157 (S158). The larger the value R, the closer to smile. Furthermore, in order to improve the accuracy of determination of the smile level, the state near the arrow 64 in FIG. 6A is determined (S159). That is, if there is a shadow at the edge of the mouth and teeth are visible, the probability of smile is high, and this is determined. As a result of the determination, if teeth are visible and there is a shadow at the mouth end, one point is added to smile level R (S160).

ただし、眉間にしわがあると笑顔とは言えないので、ステップS161で判定する。すなわち、図6(b)の矢印65付近において眼の間の皺があるか否かの判定を行なう(S161)。判定の結果、眉間の間に皺を検出した場合は、笑顔度Rから1点、減点する(S162)。このように笑顔に近いほど高得点になる数値化(R)が可能となる。
なお、本実施形態においては、両目の瞳の中心を結んだ線より上側に白目が多いか否かで笑顔度を求めたが、これに限らず、上瞼の傾き等によって求めるようにしてもよい。すなわち、図6において、瞼の幅EHに対し、瞼の一番高いところの位置ETを求め、これの比、ET/EHによっても笑顔度を求めることができる。ET/EHが大きくなると笑顔に近くなり、また、この比が小さくなり、上瞼の傾きが大きくなると笑顔から遠ざかる傾向にある。
However, if there is a wrinkle between the eyebrows, it cannot be said that it is a smile, so determination is made in step S161. That is, it is determined whether or not there is a wrinkle between the eyes near the arrow 65 in FIG. 6B (S161). If the eyelid is detected between the eyebrows as a result of the determination, one point is deducted from the smile level R (S162). In this way, the numerical value (R) can be obtained such that the closer to a smile, the higher the score.
In the present embodiment, the degree of smile is determined based on whether there are many white eyes above the line connecting the centers of the eyes of both eyes. However, the present invention is not limited to this. Good. That is, in FIG. 6, the position ET at the highest point of the heel with respect to the width EH of the heel is obtained, and the smile degree can also be obtained by the ratio ET / EH. When ET / EH increases, it becomes close to a smile, and when this ratio decreases and the inclination of the upper eye increases, it tends to move away from the smile.

本実施形態においては、表情を数値化したので、常時、顔をモニタし、その表情の数値を記録しておき、理解できない言葉から、理解できる言葉になった時に表情が変化すると、笑顔度Rの値が大きくなったり、大きく変化するので、これを判定して、日常使用言語の判断を行うようにしている。 In this embodiment, since the facial expression is digitized, the face is constantly monitored, the numerical value of the facial expression is recorded, and if the facial expression changes from an incomprehensible word to an understandable word, the smile level R Since the value of or increases greatly, this is determined to determine the language for daily use.

本実施形態においては、表情の変化の検出のために、笑顔度Rを測定しているが、これの変形例である肯定度Aについて図8および図9を用いて説明する。肯定度Aは、笑顔度Rに代えて、または笑顔度Rと一緒に用いることができる。図8は、顔が正面を向いているときと(図8(a))、下を向いたとき(図8(b))、横を向いたとき(図8(c))の様子を示す。すなわち、理解できる言葉を聴いたときには頷く(肯定)ので、図8(b)に示すように、目の中心部からΔYだけ、顔は下向きに動く。一方、理解できない言葉を聴いたときには、顔を振る(否定)ので、図8(c)に示すように、目の中心部からΔXだけ、顔は横を向く。このように、目の中心の移動を見て、肯定か否定かを判定することができる。 In the present embodiment, smile level R is measured for detection of a change in facial expression. Affirmation level A, which is a modified example thereof, will be described with reference to FIGS. 8 and 9. The affirmation degree A can be used instead of the smile degree R or together with the smile degree R. FIG. 8 shows the situation when the face is facing the front (FIG. 8A), when facing downward (FIG. 8B), and when facing side (FIG. 8C). . That is, when he / she hears an understandable word, he / she speaks (affirms), and the face moves downward by ΔY from the center of the eye as shown in FIG. 8B. On the other hand, when he / she hears a word that cannot be understood, his / her face is shaken (No), and as shown in FIG. 8C, the face turns sideways by ΔX from the center of the eye. In this way, it is possible to determine whether it is positive or negative by looking at the movement of the center of the eye.

図9は、顔の中心が所定期間に横に動いた(否定方向)か、縦に動いた(肯定方向)かを検出し、被写体(相手方)20の応答を判定するフローチャートである。顔が横に動いた回数、または頻度と縦に動いた回数、または頻度で、肯定の動きの方が目立つときは、肯定度Aの値が大きくなるように設定してある。 FIG. 9 is a flowchart for determining whether the subject (the other party) 20 has responded by detecting whether the center of the face has moved sideways (negative direction) or vertically (positive direction) during a predetermined period. When the positive movement is more conspicuous in terms of the number of times the face has moved sideways or the frequency and the number of vertical movements, or frequency, the value of the positive degree A is set to be large.

図8で示した判定方法を利用して肯定度Aを求める方法について、図9に示すフローチャートに基づいて説明する。まず、撮像素子3の出力から顔の像を検出し、所定のタイミングでスタートする(S251)。続いて、目部の中心座標66を測定する(S252)。この後、所定時間経過するのを待つ(S253)。この所定時間は、顔の頷きや横向きの変化を検出するにあたってのサンプリング時間である。 A method of obtaining the affirmation degree A using the determination method shown in FIG. 8 will be described based on the flowchart shown in FIG. First, a face image is detected from the output of the image sensor 3, and the process is started at a predetermined timing (S251). Subsequently, the center coordinates 66 of the eye are measured (S252). Thereafter, it waits for a predetermined time to elapse (S253). This predetermined time is a sampling time for detecting a whispering face or a lateral change.

所定時間が経過すると、再び目部の中心座標66を測定する(S254)。所定時間を挟んで、2つのタイミングで目部の中心座標66を測定したので、この2つのタイミングの間での目部中心座標のY方向の変化を求め、ΔYとする(S255)。次に、目部中心座標のX方向の変化を求め、ΔXとする(S256)。 When the predetermined time has elapsed, the center coordinate 66 of the eye is measured again (S254). Since the center coordinate 66 of the eye is measured at two timings with a predetermined time in between, a change in the Y-direction of the eye center coordinates between the two timings is obtained and set as ΔY (S255). Next, a change in the X direction of the eye center coordinates is obtained and set as ΔX (S256).

次に、ΔYが所定値より小さく、ΔXが所定値より大きいか否かの判定を行なう(S257)。判定の結果、この判定条件を満たしている場合には、顔を横に振っている状態であるので、肯定度Aの値を下げるべく、肯定度Aから1点減点する(S258)。続いて、ΔYが所定値より大きく、ΔXが所定値より小さいか否かの判定を行なう(S259)。判定の結果、この判定条件を満たしている場合には、頷いている状態であるので、肯定度Aの値を上げるべく、肯定度Aに1点加点する(S260)。 Next, it is determined whether ΔY is smaller than a predetermined value and ΔX is larger than a predetermined value (S257). As a result of the determination, if this determination condition is satisfied, the face is shaken sideways, so that one point is deducted from the affirmation A to reduce the value of the affirmation A (S258). Subsequently, it is determined whether ΔY is larger than a predetermined value and ΔX is smaller than a predetermined value (S259). As a result of the determination, if this determination condition is satisfied, it is in a state of scolding, so that one point is added to the affirmation A to increase the value of the affirmation A (S260).

上述の判定が終わると、次に、検出タイミングの終了かを判定する(S260)。すなわち、この肯定度Aの測定は、所定の時間間隔で複数回繰り返し行うので、ステップS260において、この回数に達したかの判定を行なう。達していない場合には、ステップS253に戻り、繰り返し行なう。 When the above determination is finished, it is next determined whether the detection timing is over (S260). That is, since the measurement of the affirmation degree A is repeated a plurality of times at a predetermined time interval, it is determined whether or not this number has been reached in step S260. If not, the process returns to step S253 and is repeated.

笑顔度Rおよび肯定度Aの測定は、図10に示すように、言語を切り換えながら、顔の動きをモニタして行なう。図10に示す例では、言語Cのときが笑顔度Rおよび肯定度Aの値が最も高いことから、この被写体20の使用言語は言語Cだと判断することができる。 As shown in FIG. 10, the smile level R and the positive level A are measured by monitoring the movement of the face while switching the language. In the example shown in FIG. 10, since the smile level R and affirmation level A are the highest when the language is C, it can be determined that the language used by the subject 20 is the language C.

次に、カメラ100の制御について、図11および図12を用いて説明する。撮影に先立って、言語選択モード(電子辞書モード)とカメラモードの切替設定ができるようになっており、設定モードの判定を行なう(S1)。判定の結果、言語選択モードが設定されていた場合には、ステップS21以下において、図2において説明したようにコミュニケーションをとりながら、言語選択を行なう。 Next, control of the camera 100 will be described with reference to FIGS. 11 and 12. Prior to shooting, switching between language selection mode (electronic dictionary mode) and camera mode can be performed, and the setting mode is determined (S1). If the language selection mode is set as a result of the determination, the language selection is performed while communicating as described in FIG.

言語選択モードに入ると、まず、被写体20に対して撮影許可を得るか否かの判定を行なう(S21)。この撮影許可は、前述したモデル撮影または一緒撮影(図3参照)の許可である。カメラ100のスイッチ類の操作により、撮影許可を得るための設定モードに切り換えるので、このステップでは、撮影許可のための設定となっているか否かの判定を行なう。 When the language selection mode is entered, first, it is determined whether or not the subject 20 is permitted to shoot (S21). This photographing permission is permission for the above-described model photographing or simultaneous photographing (see FIG. 3). Since the switch to the setting mode for obtaining the photographing permission is performed by operating the switches of the camera 100, in this step, it is determined whether or not the setting is for photographing permission.

ステップS21における判定の結果、撮影許可を得る場合には、次に表情モニタを開始すし(S22)、多言語による質問を、順次、言語を変えながら再生する(S23)。質問は音声発生部14のスピーカーによる音声再生、または表示パネル8に文字表示によって行なう。また、このときには、図7に示した笑顔度Rを求めるフローを行なう。また、これに代えて、または一緒に図9に示した肯定度Aを求めるフローを行なってもよい。 If the result of determination in step S21 is that permission to shoot is obtained, facial expression monitoring is then started (S22), and multilingual questions are sequentially reproduced while changing the language (S23). The question is asked by voice reproduction by the speaker of the voice generator 14 or by displaying characters on the display panel 8. At this time, the flow for obtaining the smile degree R shown in FIG. 7 is performed. Instead of this or together, a flow for obtaining the affirmation degree A shown in FIG. 9 may be performed.

次に、全ての言語について再生が終了したかを判定する(S24)。判定の結果、終了していない場合には、ステップS23に戻り、次の言語で再生を行なう。一方、判定の結果、終了の場合には、表情より言語の判定を行なう(S25)。判定は、図13に示したように、各言語ごとの笑顔度Rや肯定度Aを比較し、最も笑顔度Rや肯定度Aの高い言語を被写体20の使用言語と推定する。 Next, it is determined whether or not playback has been completed for all languages (S24). If the result of determination is that it has not ended, processing returns to step S23, and playback is performed in the next language. On the other hand, if the result of the determination is end, the language is determined from the facial expression (S25). As shown in FIG. 13, the smile level R and the affirmative level A are compared for each language, and the language with the highest smile level R and the positive level A is estimated as the language used by the subject 20.

次に、推定した対応言語の確認を行なう(S26)。確認は、音声発生部14から、対応言語で確認の旨を音声表示し、また表示パネル8において対応言語の確認メッセージを表示することにより行なう。続いて、この対応言語の音声表示または視覚表示に対してOKか否かを判定する(S27)。判定の結果、NGの場合には、ステップS23に戻り、適切な対応言語が見つかるまで、前述のステップを繰り返す。 Next, the estimated corresponding language is confirmed (S26). The confirmation is performed by voice-displaying the confirmation in the corresponding language from the voice generation unit 14 and displaying a confirmation message of the corresponding language on the display panel 8. Subsequently, it is determined whether or not the voice display or visual display of the corresponding language is OK (S27). If the result of determination is NG, processing returns to step S23, and the above steps are repeated until an appropriate corresponding language is found.

ステップS27における判定がOKであった場合には、次に、撮影をして良いかの確認、または依頼を行なうが、これは、そのときの被写体20の表情によって対応をかえる。まず、その時の被写体20となる人物の表情が笑顔であるか否かを判定する(S28)。判定の結果、笑顔度Rが高い場合には、ステップS26で確認した対応言語でもって、図3(b)に示したようなモデル撮影の依頼を行なう(S31)。一方、判定の結果、笑顔度Rが低い場合には、対応言語でもって図3(a)に示したような一緒撮影の依頼を行なう(S32)。なお、ステップS31およびS32における依頼は、音声でも文字表示でも、いずれでもよい。 If the determination in step S27 is OK, next, whether or not to shoot is confirmed or requested, this is changed depending on the facial expression of the subject 20 at that time. First, it is determined whether or not the facial expression of the person who is the subject 20 at that time is a smile (S28). If the smile level R is high as a result of the determination, a model photographing request as shown in FIG. 3B is made in the corresponding language confirmed in step S26 (S31). On the other hand, if the smile level R is low as a result of the determination, a request is made for photographing together as shown in FIG. 3A in the corresponding language (S32). Note that the request in steps S31 and S32 may be either voice or text display.

このように笑顔度Rで対応を変えているのは、モデル撮影の場合には被写体一人を撮影することから心理的に拒否され易いのに対して、一緒撮影は、図2に示したようにユーザー21と被写体20は一緒の体勢にあることから受け入れ易いと思われるからである。 The reason why the correspondence is changed by the smile degree R is that it is easily rejected psychologically in the case of model shooting because it shoots only one subject, whereas the shooting together is as shown in FIG. This is because the user 21 and the subject 20 are likely to be accepted because they are in the same posture.

ステップS28〜S32におけるような切替だけでなく、表情によって、笑顔なら説明なしだが、厳しい表情なら撮影したい理由を説明するなどの切替を行ってもよい。この理由は、一般的な、「ここに来た記念として」、「あとで送るから」といった一般的なものでもよく、また被写体20の表情を判定して、「誰それに似ているから」とか、空の青さを判定して、「いいお天気だから」のように、画像を考慮して依頼の表示を変更するようにしてもよい。 In addition to the switching in steps S28 to S32, switching may be performed by explaining the reason why the user wants to shoot if there is a harsh expression, although there is no explanation if the expression is a smile. The reason may be a general one such as “as a memorial to come here” or “because it will be sent later”. Alternatively, the blueness of the sky may be determined, and the display of the request may be changed in consideration of the image, such as “because the weather is good”.

ステップS31またはS32における撮影依頼が終わると、次に、関連付けフレーズの候補化を行なう(S45)。これは、後日、撮影した画像を検索するときに画像に関連してフレーズが添付されていると、検索し易いことから、このためのフレーズの候補を抽出し、記憶しておく。このステップが終わると、前述のステップS1に戻る。 When the photographing request in step S31 or S32 is completed, association phrases are then candidateized (S45). This is because, when a photographed image is retrieved at a later date, if a phrase is attached in association with the image, it is easy to retrieve, so a phrase candidate for this purpose is extracted and stored. When this step ends, the process returns to the above-described step S1.

ステップS21における判定の結果、撮影許可を得る場合ではないときには、次に、フレーズの選択を行なう(S41)。このカメラ100はコミュニケーション手段としても使用でき、ユーザー21が被写体20とコミュニケーションを図るに必要なフレーズが予め多言語辞書データベース12に記憶されている。そこで、ユーザー21は、ユーザー21の使用言語でデータベース12の中に記憶されているフレーズを選択する。 If the result of determination in step S <b> 21 is that it is not the case that photographing permission is obtained, next, a phrase is selected (S <b> 41). The camera 100 can also be used as a communication means, and phrases necessary for the user 21 to communicate with the subject 20 are stored in the multilingual dictionary database 12 in advance. Therefore, the user 21 selects a phrase stored in the database 12 in the language used by the user 21.

次に、対応言語情報が有るか否かの判定を行なう(S42)。このステップを実行する前にステップS21からステップS27を実行し、被写体(相手方)20の使用言語を特定している場合には、対応言語の情報があり、一方、このような使用言語の判定を行なっていない場合には、対応言語の情報がないことになる。 Next, it is determined whether or not the corresponding language information exists (S42). Before executing this step, if step S21 to step S27 are executed and the language used by the subject (the other party) 20 is specified, there is information on the corresponding language, and on the other hand, such language determination is performed. If not, there is no information on the corresponding language.

ステップS42における判定の結果、対応言語情報が有る場合には、次に、ステップS41で選択されたフレーズについて対応言語に翻訳を行なう(S43)。翻訳結果は音声発生部14のスピーカーから音声で表示してもよいし、また表示パネル8に文字情報として視覚的に表示してもよい。一方、判定の結果、対応言語情報がない場合には、各国語の一覧表示を行なう(S44)。すなわち、多言語辞書データベース12に記憶されている言語の一覧表を表示し、対応言語を選択してもらう(S44)。対応言語が選択されれば、ステップS41において選択されたフレーズについて、音声または視覚で表示を行なう。 If the result of determination in step S42 is that the corresponding language information is present, the phrase selected in step S41 is translated into the corresponding language (S43). The translation result may be displayed by voice from the speaker of the voice generation unit 14 or may be visually displayed as character information on the display panel 8. On the other hand, if there is no corresponding language information as a result of the determination, a list of national languages is displayed (S44). That is, a list of languages stored in the multilingual dictionary database 12 is displayed, and a corresponding language is selected (S44). If the corresponding language is selected, the phrase selected in step S41 is displayed by voice or vision.

このようにして、ユーザー21と被写体(相手方)20とのコミュニケーションが可能となる。相手の答が、Yes、Noで答えられるような質問にすれば、ある程度の意思疎通が可能となる。ここで、Yes、Noの判定も、画像で行ってもよい。また、マイクを接続し、音声認識によって翻訳を可能とするようにしてもよい。 In this way, communication between the user 21 and the subject (partner) 20 is possible. If the other person's answer is a question that can be answered with Yes or No, a certain degree of communication is possible. Here, determination of Yes and No may also be performed with an image. Further, a microphone may be connected to enable translation by voice recognition.

ステップS43またS44の処理が終わると、次に、前述したように関連付けフレーズの候補化を行なう(S45)。コミュニケーション時のフレーズや言語情報は、撮影した画像を検索するときに有効利用できるので、関連付けフレーズの候補として記録しておく。この結果に基づいて、後述するステップS17においてフレーズの関連付けを行なってもよい。 When the processes of steps S43 and S44 are finished, association phrases are then candidateized as described above (S45). Since phrases and language information at the time of communication can be used effectively when searching for a photographed image, they are recorded as related phrase candidates. Based on this result, phrases may be associated in step S17 described later.

ステップS1における判定の結果、言語選択モードではなかった場合には、撮影モードの選択を行なう(S2)。撮影モードの選択では、前述したモデル撮影か、一緒撮影のいずれかを選択する。モデル撮影では、図5の下側にある範囲内の扇形部(モデル撮影範囲56)の画像を利用し、一緒撮影では、上側の扇型部(一緒撮影記録範囲52)を利用する。続いて、撮影時の掛け声を音声発生部14から行う(S3)。これは、被写体20の使用言語がわかっている場合に行う。撮影時の掛け声に応じて、被写体がにっこり笑う等、表情が和むので、このタイミングを利用して撮影を行えばよい。 If the result of determination in step S1 is not language selection mode, shooting mode is selected (S2). In the selection of the shooting mode, either the model shooting described above or the simultaneous shooting is selected. In the model shooting, an image of the fan-shaped portion (model shooting range 56) in the lower range in FIG. 5 is used, and in the simultaneous shooting, the upper fan-shaped portion (both shooting recording range 52) is used. Subsequently, a voice call at the time of shooting is performed from the sound generator 14 (S3). This is performed when the language used by the subject 20 is known. Depending on the shout at the time of shooting, the subject smiles, such as smiling, so the shooting may be performed using this timing.

次に、撮影か否かの判定を行なう(S4)。撮影動作はレリーズ釦1aの操作に応じて開始される。判定の結果、撮影であった場合には、撮影動作を行う(S5)。撮影動作は、撮影レンズ2を透過した被写体光に基づく被写体像を撮像素子3が光電変換し、AFE4によって選択された画像範囲の画像データを、歪み補正等の画像処理を行なう。続いて、関連情報を画像に関連付けを行なう(S6)。画像記録時に、時計情報や設定したキーワード情報等の関連情報を画像に関連付けを行なう。また表情等によりステップS45において関連付けの候補を選択し、後述するステップS17で選択したフレーズ等の言語情報の関連付けを行なう。 Next, it is determined whether or not shooting is performed (S4). The shooting operation is started in response to the operation of the release button 1a. If the result of determination is that the image has been shot, a shooting operation is performed (S5). In the photographing operation, the image sensor 3 photoelectrically converts a subject image based on subject light transmitted through the photographing lens 2 and performs image processing such as distortion correction on the image data in the image range selected by the AFE 4. Subsequently, the related information is associated with the image (S6). At the time of image recording, related information such as clock information and set keyword information is associated with the image. Further, a candidate for association is selected in step S45 based on an expression or the like, and language information such as a phrase selected in step S17 described later is associated.

次に、関連付けを行なう情報が言語情報か否かの判定を行なう(S7)。判定の結果、言語情報ではない場合には、スキップして次のステップS9に進み、言語情報の場合には、その言語を翻訳する(S8)。すなわち、被写体20の使用言語でも関連付け情報が添付されるように翻訳を行なう。続いて、画像データの記録を行う(S9)。ここでは、画像処理された画像データを圧縮部6において圧縮処理し、また関連情報も添付した上で、記録メディア9に記録してから、リターンする。 Next, it is determined whether or not the information to be associated is language information (S7). As a result of the determination, if it is not language information, it skips and proceeds to the next step S9, and if it is language information, the language is translated (S8). That is, the translation is performed so that the association information is attached even in the language used by the subject 20. Subsequently, image data is recorded (S9). Here, the image data subjected to the image processing is compressed by the compression unit 6 and the related information is attached, and after recording on the recording medium 9, the process returns.

ステップS4における撮影か否かの判定の結果、撮影ではない場合には、次に再生モードか否かの判定を行なう(S11)。判定の結果、再生モードであった場合には、記録メディア9等に記録されている画像データ等を表示パネル8に表示する。続いて、再生画像を、インターネットを介して外部のサーバー34にアップロードするか否かの処理に移る。まず、通信を行なうか否かの判定を行なう(S13)。これは、選択した再生画像の外部のサーバー34にアップロードする旨の操作を行なった否かの判定である。 If the result of determination in step S4 is not shooting, it is next determined whether or not playback mode is in effect (S11). As a result of the determination, if the playback mode is selected, the image data recorded on the recording medium 9 or the like is displayed on the display panel 8. Subsequently, the process proceeds to whether or not the reproduced image is to be uploaded to the external server 34 via the Internet. First, it is determined whether or not to perform communication (S13). This is a determination as to whether or not an operation for uploading the selected reproduced image to the external server 34 has been performed.

ステップS13の判定の結果、通信を行なう場合には、選択画像をアップロードするサーバー34等の記録領域を指定する(S14)。そして、この指定された記録領域のアドレスに選択画像の送信を行なう(S15)。ステップS13における判定の結果、通信ではない場合には、関連付けを行なうか否かの判定を行なう(S16)。判定の結果、関連付けを行う場合には、選択フレーズ関連付けを行なう(S17)。ステップS12において再生表示を行なっており、このステップにおいて再生画像に対して選択フレーズの関連付けを行なう。 If communication is performed as a result of the determination in step S13, a recording area such as the server 34 to upload the selected image is designated (S14). Then, the selected image is transmitted to the address of the designated recording area (S15). If the result of determination in step S13 is not communication, it is determined whether or not to perform association (S16). As a result of determination, when the association is performed, the selected phrase is associated (S17). Reproduction display is performed in step S12. In this step, the selected phrase is associated with the reproduction image.

この画像関連情報は、撮影が終わった後、キーワードとなるフレーズ一覧を図2のようにユーザー21と被写体20の二人で見ながら、フレーズ23(図4(b))を決定してもよい。翻訳して順次候補を表示することができるので、これ見ながら二人で選ぶ。表示パネル8で見るのが見にくい場合には、音声発生部14のスピーカーでこのフレーズやキーワードを翻訳したものを発声させてもよい。順次発音させている時に、被写体の表情をモニタしておき、図7に示した笑顔度Rを測定することにより、「これがよい」という表情を判定し、画像に関連付けられるようにしてもよいし、もちろん、スイッチの操作で選べるようにしてもよい。ステップS17の選択フレーズの関連付けが終わるとリターンする。 This image-related information may determine the phrase 23 (FIG. 4B) while watching the phrase list as a keyword with the user 21 and the subject 20 as shown in FIG. . The candidates can be translated and displayed sequentially, so you can select them while watching this. If it is difficult to see on the display panel 8, a phrase obtained by translating the phrase or keyword may be uttered by the speaker of the sound generator 14. When the sound is generated sequentially, the facial expression of the subject is monitored, and the smile level R shown in FIG. 7 is measured to determine the facial expression “this is good” and associate it with the image. Of course, it may be selected by operating a switch. When the association of the selected phrase in step S17 ends, the process returns.

次に、図13に示すフローチャートを用いて、本実施形態におけるカメラ100の画像を記録、管理するサーバー34の動作を説明する。前述したように、カメラ100は、ステップS15において、画像を送信する。サーバー34は、まず、画像等のコンテンツをインターネット経由で受信中であるか、すなわちコンテンツの記録を行うか否かの判定を行なう(S101)。判定の結果、コンテンツの記録を行う場合には、ステップS102において記録を行なう。この記録時には、画像に添付されているキーワードやフレーズ等の関連情報(記事)の記録も行う。 Next, the operation of the server 34 that records and manages the image of the camera 100 according to the present embodiment will be described using the flowchart shown in FIG. As described above, the camera 100 transmits an image in step S15. First, the server 34 determines whether content such as an image is being received via the Internet, that is, whether or not the content is to be recorded (S101). If the content is recorded as a result of the determination, recording is performed in step S102. At the time of recording, related information (articles) such as keywords and phrases attached to the image is also recorded.

続いて、関連付け情報等に翻訳情報が有るか否かの判定を行なう(S103)。これは、撮影者(ユーザー)21の国の言語のみならず、被写体(相手方)20の国の言語もタグとして画像に添付し、後に検索でも利用できるようにするために、翻訳情報の有無を判定している。判定の結果、翻訳情報が存在している場合には、翻訳情報をタグ化する(S104)。このように翻訳情報をタグ化しておくことにより、撮影者(ユーザー)21の国の言葉が分からなくとも、被写体(相手方)20は、自身の写真をネット上で検索することが可能となる。 Subsequently, it is determined whether or not there is translation information in the association information or the like (S103). This is because not only the language of the photographer (user) 21 country but also the language of the subject (partner) 20 country is attached to the image as a tag, and the presence / absence of translation information is used so that it can be used later in the search. Judgment. If the translation information exists as a result of the determination, the translation information is tagged (S104). By tagging the translation information in this way, the subject (the other party) 20 can search for his / her own photograph on the net without knowing the national language of the photographer (user) 21.

ステップS101における判定の結果、コンテンツ記録ではない場合には、検索を行なうか否かの判定を行なう(S111)。判定の結果、検索の場合には、検索者が打ち込んだ検索ワードに該当するタグを持つ画像の検索を行い(S112)、検索された画像を表示する(S113)。選択画像が表示されると、次に、この画像に関連する関連記事の表示を行なう(S114)。なお、関連記事は前述したようにステップS101において、コンテンツ記録時に一緒に記録されている。続いて、この関連記事に対して、翻訳要求があるか否かの判定を行なう(S115)。翻訳要求がない場合には、そのままリターンする。一方、翻訳要求があった場合には、翻訳サービスを行なうインターネット32上の翻訳サービスサーバー33と連携して、その記事の翻訳表示を行なう(S116)。 If the result of determination in step S101 is not content recording, it is determined whether or not to search (S111). As a result of the determination, in the case of a search, an image having a tag corresponding to the search word typed by the searcher is searched (S112), and the searched image is displayed (S113). When the selected image is displayed, next, related articles related to this image are displayed (S114). Note that the related articles are recorded together with the content recording in step S101 as described above. Subsequently, it is determined whether or not there is a translation request for this related article (S115). If there is no translation request, the process returns as it is. On the other hand, if there is a translation request, the article is translated and displayed in cooperation with the translation service server 33 on the Internet 32 that provides the translation service (S116).

ステップS111における判定の結果、検索ではない場合には、次に、画像アクセスか否かを判定する(S121)。これは、インターネット32に接続されたパーソナルコンピュータ等がサーバー34にアクセスし、このサーバー34に記録されている画像にアクセスしてきたか否かの判定である。判定の結果、アクセスが有る場合には、そのアドレスに対応する画像の表示を行ない(S113)、次いで、前述のステップS114以下に進み、関連記事の表示等を行い、リターンする。 If the result of determination in step S111 is not retrieval, it is next determined whether or not there is image access (S121). This is a determination as to whether a personal computer or the like connected to the Internet 32 has accessed the server 34 and has accessed an image recorded on the server 34. As a result of the determination, if there is an access, an image corresponding to the address is displayed (S113), and then the processing proceeds to the above-described step S114 and thereafter, related articles are displayed, and the process returns.

次に、図14を用いて、本実施形態における魚眼レンズのような広角レンズ等の光学系で構成された撮影レンズ2の変形例を説明する。本実施形態においては、前述したように魚眼レンズによって形成される映像の全域を利用してはいない。そこで、図14(a)、(b)のように、複眼レンズ66やプリズム67を利用して、図5に示した2つの部分、すなわち、一緒撮影記録範囲52、モデル撮影範囲56の2つの範囲をカバーするようにしてもよい。また、図14(c)のように凸面反射鏡69を配置するようにしてもよい。 Next, a modified example of the photographing lens 2 configured by an optical system such as a wide-angle lens such as a fisheye lens in the present embodiment will be described with reference to FIG. In the present embodiment, as described above, the entire image formed by the fisheye lens is not used. Therefore, as shown in FIGS. 14A and 14B, using the compound eye lens 66 and the prism 67, the two parts shown in FIG. The range may be covered. Further, a convex reflecting mirror 69 may be arranged as shown in FIG.

以上、述べたように本実施形態に係るカメラおいては、被写体の表情をモニタすることにより、被写体の理解し使用する言語を判定している。このため、被写体が理解できる言語が分からなくても、使用言語を推定することができ、ユーザーと被写体の間で言語を特定し、コミュニケーションを図ることができる。 As described above, in the camera according to the present embodiment, the language used for understanding and using the subject is determined by monitoring the facial expression of the subject. Therefore, even if the language that the subject can understand is not known, the language used can be estimated, and the language can be specified and communicated between the user and the subject.

また、本実施形態においては、使用言語を特定できると、その言語によるフレーズ等を用いてコミュニケーションを図ることができると共に、そのフレーズ等を画像に関連付けて記録するようにしているので、後から検索する場合に便利である。特に撮影者の言語と、被写体の言語の両方で記録し、これをサーバー等にアップロードしたときには、双方が簡単に検索し、画像を探すことができる。 In the present embodiment, if the language used can be specified, communication can be achieved using a phrase or the like in that language, and the phrase or the like is recorded in association with an image. Useful when you want. In particular, when both the photographer's language and the subject's language are recorded and uploaded to a server or the like, both can easily search and search for images.

さらに、本実施形態においては、被写体の表情に応じて撮影モード(モデル撮影モードと、一緒撮影モード)を変更している。使用言語が異なる場合には、言葉だけでは十分なコミュニケーションを図るのが困難な場合があるが、本実施形態においては、被写体の状態に応じて撮影モードを変更することができる。 Further, in the present embodiment, the shooting mode (model shooting mode and shooting mode together) is changed according to the facial expression of the subject. If the language used is different, it may be difficult to communicate with words alone, but in this embodiment, the shooting mode can be changed according to the state of the subject.

さらに、本実施形態においては、撮影レンズとして魚眼レンズのような広角レンズを使用し、モデル撮影と一緒撮影を同一の状態で撮像し、ただ、撮像素子の出力から、それぞれの映像範囲に応じて画像を切り出している。このため、カメラはそのままの状態で撮影でき、言語の壁によりカメラアングルを決め難い状態でも、状況に応じた撮影ができる。 Furthermore, in the present embodiment, a wide-angle lens such as a fisheye lens is used as a photographing lens, and photographing is performed in the same state as model photographing, but images are output according to each video range from the output of the image sensor. Is cut out. For this reason, the camera can be photographed as it is, and even in a state where it is difficult to determine the camera angle due to language barriers, photographing according to the situation can be performed.

本発明の説明にあたって、カメラに適用した例で説明したが、表情をモニタすることにより、言語を特定する技術はカメラに限らず、例えば電子辞書、電子通訳装置等の種々のガイド装置に適用することができる。また、撮影した画像に関連情報を付加して記録する等の技術は、コンパクトカメラや一眼レフレックスカメラ等の種々のカメラに適用できることは勿論、携帯電話やPDA等の内蔵カメラにも適用することができる。 In the description of the present invention, the example applied to the camera has been described. However, the technique for specifying the language by monitoring the facial expression is not limited to the camera, and may be applied to various guide devices such as an electronic dictionary and an electronic interpreting device. be able to. In addition, techniques such as recording related images with recorded information can be applied to various cameras such as compact cameras and single lens reflex cameras, as well as to built-in cameras such as mobile phones and PDAs. Can do.

1・・・MPU、1a・・・レリーズスイッチ、1b・・・モード切替スイッチ、1c・・・他のスイッチ、1t・・・時計部、2・・・撮影レンズ、2a・・・AF(オートフォーカス)制御部、2b・・・絞り、2c・・・絞り制御部、3・・・撮像素子、4・・・アナログフロントエンド(AFE)部、5・・・画像処理部、5a・・・形状判定部、5b・・・歪み補正部、5c・・・表情判定部、5d・・・顔検出部、6・・・圧縮部、8・・・表示パネル、8a・・・表示制御部、8b・・・辞書/カメラ表示切替部、8c・・・バックライト(BL)、8d・・・バックライト(BL)制御部、9・・・記録メディア、9a・・・記録部、9c・・・データ送受信部、10・・・本体部、11・・・補助光発光部、12・・・多言語辞書データベース、14・・・音声発生部、16・・・矢印(撮影方向)、17・・・矢印(撮影方向)、20・・・被写体(相手方)、21・・・ユーザー(撮影者)、22・・・モニタ範囲、23・・・フレーズ、31・・・他のユーザー、32・・・インターネット、33・・・翻訳サービスサーバー、34・・・サーバー、51・・・映像範囲(魚眼レンズから入る映像範囲)、52・・・撮影記録範囲、53・・・矩形画像(歪み補正済み)、54・・・撮像範囲(撮像素子)、55・・・補助光範囲、56・・・モデル撮影範囲、61・・・線(瞳を結ぶ線)、64・・・矢印(口元)65・・・矢印(眉間)、66・・・目部中心、67・・・複眼レンズ、68・・・プリズム、69・・・凸面反射鏡、100・・・カメラ DESCRIPTION OF SYMBOLS 1 ... MPU, 1a ... Release switch, 1b ... Mode changeover switch, 1c ... Other switch, 1t ... Clock part, 2 ... Shooting lens, 2a ... AF (automatic Focus) control unit, 2b ... aperture, 2c ... aperture control unit, 3 ... imaging device, 4 ... analog front end (AFE) unit, 5 ... image processing unit, 5a ... Shape determination unit, 5b ... distortion correction unit, 5c ... facial expression determination unit, 5d ... face detection unit, 6 ... compression unit, 8 ... display panel, 8a ... display control unit, 8b: dictionary / camera display switching unit, 8c: backlight (BL), 8d: backlight (BL) control unit, 9: recording medium, 9a: recording unit, 9c,. Data transmission / reception unit, 10 ... main body, 11 ... auxiliary light emitting unit, 12 ... multilingual Dictionary database, 14 ... sound generation unit, 16 ... arrow (shooting direction), 17 ... arrow (shooting direction), 20 ... subject (partner), 21 ... user (photographer), 22 ... monitor range, 23 ... phrase, 31 ... other users, 32 ... internet, 33 ... translation service server, 34 ... server, 51 ... video range (from fisheye lens) Entering video range), 52... Shooting recording range, 53... Rectangular image (distortion corrected), 54... Imaging range (imaging device), 55. Range: 61 ... Line (line connecting pupils), 64 ... Arrow (mouth) 65 ... Arrow (between eyebrows), 66 ... Eye center, 67 ... Compocular lens, 68 ... Prism, 69 ... convex reflector, 100 ... camera

Claims (9)

複数のガイド情報を記憶するガイド情報記憶部と、
上記ガイド情報記憶部から読み出された上記ガイド情報を表示する表示部と、
上記ガイド情報を観察する対象人物の表情をモニタする撮像部と、
上記撮像部によってモニタされた対象人物の表情を判定する表情判定部と、
上記ガイド情報の表示中に、上記表情判定部によって判定された上記対象人物の表情に応じて上記対象人物に対するメッセージを決定し、上記対象人物に上記メッセージを表示する表示制御部と、
を具備することを特徴とするガイド装置。
A guide information storage unit for storing a plurality of guide information;
A display unit for displaying the guide information read from the guide information storage unit;
An imaging unit for monitoring the facial expression of the target person observing the guide information;
A facial expression determination unit that determines the facial expression of the target person monitored by the imaging unit;
A display control unit for determining a message for the target person according to the facial expression of the target person determined by the facial expression determination unit while displaying the guide information, and displaying the message on the target person;
A guide device comprising:
上記メッセージは、上記撮像部で得られた画像の色や上記表情判定部によって判定された顔情報の特徴によって決定することを特徴とする請求項1に記載のガイド装置。   The guide device according to claim 1, wherein the message is determined by a color of an image obtained by the imaging unit or a feature of face information determined by the facial expression determination unit. 上記表示制御部は、上記表情判定部による判定結果に応じて、上記メッセージを決定した理由を説明する、
ことを特徴とする請求項1に記載のガイド装置。
The display control unit explains the reason for determining the message according to the determination result by the facial expression determination unit.
The guide device according to claim 1.
上記メッセージを表示するに先だって、異なるガイド情報を表示し、上記表情判定部の判定結果に基づいて、上記対象人物の心理を推定する推定部を有し、この推定された結果によってコミュニケーションを図ることを特徴とする請求項1に記載のガイド装置。   Prior to displaying the message, different guide information is displayed and an estimation unit for estimating the psychology of the target person based on the determination result of the facial expression determination unit is provided, and communication is performed based on the estimated result. The guide device according to claim 1. 上記推定部は、異なる言語のガイド情報を表示した際に上記表情判定部による判定結果に基づいて、上記対象人物の使用言語を推定し、
上記表示制御部は、上記推定部によって推定された使用言語で上記メッセージを表示する、
ことを特徴とする請求項4に記載のガイド装置。
The estimation unit estimates a language used by the target person based on a determination result by the facial expression determination unit when displaying guide information in a different language,
The display control unit displays the message in the language used estimated by the estimation unit.
The guide device according to claim 4.
さらに、音声を取り込むマイクを有し、
上記推定部は、取り込んだ上記音声の調子またはタイミングに基づいて言語を推定する、
ことを特徴とする請求項4に記載のガイド装置。
In addition, it has a microphone to capture audio,
The estimation unit estimates a language based on the tone or timing of the captured voice,
The guide device according to claim 4.
上記表示部は、視覚的または聴覚的に表示を行うことを特徴とする請求項1に記載のガイド装置。   The guide device according to claim 1, wherein the display unit performs display visually or audibly. 言語ガイド情報に対する対象人物の表情や音声を検出する検出部と、
上記言語ガイド情報の表示中に、上記検出結果に応じて上記対象人物に対する言語を推定する言語推定部と、
上記言語推定部によって推定された使用言語によるコミュニケーション用のフレーズを決定する決定部と、
を具備することを特徴とするガイド装置。
A detection unit for detecting the facial expression and voice of the target person with respect to the language guide information;
A language estimation unit that estimates a language for the target person according to the detection result during the display of the language guide information;
A determination unit for determining a communication phrase in the language used estimated by the language estimation unit;
A guide device comprising:
ガイド情報を表示し、
上記ガイド情報を観察する対象人物の表情をモニタし、
モニタされた上記対象人物の表情を判定し、
上記ガイド情報の表示中に、上記判定された上記対象人物の表情に応じて上記対象人物に対するメッセージを決定する、
ことを特徴とするガイド方法。
Display guide information,
Monitor the facial expression of the target person observing the guide information,
Determine the monitored facial expression of the target person,
Determining a message for the target person according to the determined facial expression of the target person during the display of the guide information;
A guide method characterized by that.
JP2011263393A 2011-12-01 2011-12-01 Guide device and guide method Expired - Fee Related JP5096610B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011263393A JP5096610B2 (en) 2011-12-01 2011-12-01 Guide device and guide method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011263393A JP5096610B2 (en) 2011-12-01 2011-12-01 Guide device and guide method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007135262A Division JP4885792B2 (en) 2007-05-22 2007-05-22 Guide device and guide method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012206414A Division JP5540051B2 (en) 2012-09-20 2012-09-20 Camera with guide device and method of shooting with guide

Publications (2)

Publication Number Publication Date
JP2012079330A true JP2012079330A (en) 2012-04-19
JP5096610B2 JP5096610B2 (en) 2012-12-12

Family

ID=46239409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011263393A Expired - Fee Related JP5096610B2 (en) 2011-12-01 2011-12-01 Guide device and guide method

Country Status (1)

Country Link
JP (1) JP5096610B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015038645A1 (en) * 2013-09-11 2015-03-19 Motorola Mobility Llc Electronic device with gesture detection system and methods for using the gesture detection system
US9029780B2 (en) 2013-09-11 2015-05-12 Google Technology Holdings LLC Electronic device with gesture detection system and methods for using the gesture detection system
JP2017201499A (en) * 2015-10-08 2017-11-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Control method of information presentation apparatus, and information presentation apparatus

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001128134A (en) * 1999-11-01 2001-05-11 Atr Media Integration & Communications Res Lab Presentation device
JP2001296882A (en) * 2000-04-14 2001-10-26 Alpine Electronics Inc Navigation system
JP2002304392A (en) * 2001-04-04 2002-10-18 Atr Onsei Gengo Tsushin Kenkyusho:Kk Voice translation system
JP2005266984A (en) * 2004-03-17 2005-09-29 Konica Minolta Holdings Inc Image processing system
JP2006340986A (en) * 2005-06-10 2006-12-21 Ntt Docomo Inc Face information detector and communication system by detecting face information
JP2007080057A (en) * 2005-09-15 2007-03-29 Kddi Corp Attribute decision amusement device according to face

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001128134A (en) * 1999-11-01 2001-05-11 Atr Media Integration & Communications Res Lab Presentation device
JP2001296882A (en) * 2000-04-14 2001-10-26 Alpine Electronics Inc Navigation system
JP2002304392A (en) * 2001-04-04 2002-10-18 Atr Onsei Gengo Tsushin Kenkyusho:Kk Voice translation system
JP2005266984A (en) * 2004-03-17 2005-09-29 Konica Minolta Holdings Inc Image processing system
JP2006340986A (en) * 2005-06-10 2006-12-21 Ntt Docomo Inc Face information detector and communication system by detecting face information
JP2007080057A (en) * 2005-09-15 2007-03-29 Kddi Corp Attribute decision amusement device according to face

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015038645A1 (en) * 2013-09-11 2015-03-19 Motorola Mobility Llc Electronic device with gesture detection system and methods for using the gesture detection system
US9029780B2 (en) 2013-09-11 2015-05-12 Google Technology Holdings LLC Electronic device with gesture detection system and methods for using the gesture detection system
US9423500B2 (en) 2013-09-11 2016-08-23 Google Technology Holdings LLC Electronic device with gesture detection system and methods for using the gesture detection system
US10042429B2 (en) 2013-09-11 2018-08-07 Google Technology Holdings LLC Electronic device with gesture detection system and methods for using the gesture detection system
US10606365B2 (en) 2013-09-11 2020-03-31 Google Technology Holdings LLC Electronic device with gesture detection system and methods for using the gesture detection system
US11061481B2 (en) 2013-09-11 2021-07-13 Google Technology Holdings LLC Electronic device with gesture detection system and methods for using the gesture detection system
US11644903B2 (en) 2013-09-11 2023-05-09 Google Technology Holdings LLC Electronic device with gesture detection system and methods for using the gesture detection system
JP2017201499A (en) * 2015-10-08 2017-11-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Control method of information presentation apparatus, and information presentation apparatus
US10691197B2 (en) 2015-10-08 2020-06-23 Panasonic Intellectual Property Corporation Of America Information presenting apparatus and control method therefor
US11275431B2 (en) 2015-10-08 2022-03-15 Panasonic Intellectual Property Corporation Of America Information presenting apparatus and control method therefor

Also Published As

Publication number Publication date
JP5096610B2 (en) 2012-12-12

Similar Documents

Publication Publication Date Title
JP4274233B2 (en) Imaging apparatus, image processing apparatus, image processing method therefor, and program causing computer to execute the method
US8599251B2 (en) Camera
JP4577275B2 (en) Imaging apparatus, image recording method, and program
US9300858B2 (en) Control device and storage medium for controlling capture of images
KR101710626B1 (en) Digital photographing apparatus and control method thereof
JP5193404B2 (en) Information equipment
JP4885792B2 (en) Guide device and guide method
JP2010034685A (en) Digital camera
KR100926133B1 (en) Method and apparatus for producing and taking digital contents
JP4577445B2 (en) Imaging apparatus, image recording method, and program
KR20080109519A (en) Device and method for image photographing
JP5096610B2 (en) Guide device and guide method
JP2014050022A (en) Image processing device, imaging device, and program
JP4931693B2 (en) Information equipment
KR102146856B1 (en) Method of displaying a photographing mode using lens characteristics, Computer readable storage medium of recording the method and a digital photographing apparatus.
JP5540051B2 (en) Camera with guide device and method of shooting with guide
JP5901687B2 (en) Image capturing apparatus and method for controlling image capturing apparatus
JP2017229102A (en) Image processing apparatus, imaging apparatus, and program
JP5529303B2 (en) Information equipment
JP2008103850A (en) Camera, image retrieval system, and image retrieving method
JP2012029119A (en) Display control device, camera and display device
JP2009212867A (en) Shot image processing apparatus, shooting control program, and phiotographing control method
US20230199299A1 (en) Imaging device, imaging method and program
KR101477535B1 (en) Method and apparatus for searching an image, digital photographing apparatus using thereof
JP6317404B2 (en) Information device, information device control method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120821

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120920

R150 Certificate of patent or registration of utility model

Ref document number: 5096610

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees