JP2010237761A - Electronic apparatus - Google Patents

Electronic apparatus Download PDF

Info

Publication number
JP2010237761A
JP2010237761A JP2009082285A JP2009082285A JP2010237761A JP 2010237761 A JP2010237761 A JP 2010237761A JP 2009082285 A JP2009082285 A JP 2009082285A JP 2009082285 A JP2009082285 A JP 2009082285A JP 2010237761 A JP2010237761 A JP 2010237761A
Authority
JP
Japan
Prior art keywords
image
content
unit
evaluation
viewer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009082285A
Other languages
Japanese (ja)
Inventor
Norifumi Kamimura
昇史 上村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009082285A priority Critical patent/JP2010237761A/en
Publication of JP2010237761A publication Critical patent/JP2010237761A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately evaluate the content of an image, music or the like. <P>SOLUTION: When an image is reproduced as content, the face of an observer is imaged by a sub-camera, and the voice of the observer is recorded. On the basis of the acquired face image data, expression recognition and body motion recognition are performed, and scoring is performed based on the result. On the other hand, voice recognition is performed based on the recorded voice of the observer, and scoring is performed based on the result. The evaluation of the image is determined based on the total value of the results of scoring. The determined evaluation is stored in association with the image data. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像や音楽等のコンテンツを自動的に評価可能な電子機器に関する。   The present invention relates to an electronic device that can automatically evaluate content such as images and music.

楽曲や映像等のコンテンツを再生しているときに鑑賞者の体動を検出し、当該コンテンツに対する鑑賞者の嗜好度を算出し、その嗜好度を当該楽曲に対応づけて記録することが可能な再生装置が知られている(例えば、特許文献1参照)。   It is possible to detect the viewer's body movement while playing content such as music and video, calculate the viewer's preference for the content, and record the preference in association with the song A reproducing apparatus is known (see, for example, Patent Document 1).

特開2007−86835号公報JP 2007-86835 A

しかしながら、体動で鑑賞者の嗜好度を判断するのは困難な場合が多い。   However, it is often difficult to determine a viewer's preference level based on body movement.

本発明に係る電子機器は、コンテンツを再生する再生手段と、コンテンツの再生中に鑑賞者の表情および/または音声を検出する検出手段と、検出手段の検出結果に基づいて上記再生されたコンテンツを評価する評価手段とを具備することを特徴とする。   The electronic apparatus according to the present invention includes a reproducing unit that reproduces content, a detecting unit that detects a viewer's facial expression and / or audio during reproduction of the content, and the reproduced content based on a detection result of the detecting unit. And an evaluation means for evaluating.

本発明によれば、コンテンツの評価をその鑑賞者の表情および/または音声にて行うので、コンテンツを正確に評価できる。   According to the present invention, since the content is evaluated by the viewer's facial expression and / or voice, the content can be accurately evaluated.

一実施形態におけるデジタルカメラの制御ブロック図。The control block diagram of the digital camera in one Embodiment. レイティング結果を画像に重ね合わせて表示する際の表示例を示す図。The figure which shows the example of a display at the time of displaying a rating result superimposed on an image. レイティング時の鑑賞者の様子を画像に重ね合わせて表示する際の表示例を示す図。The figure which shows the example of a display at the time of overlaying and displaying the state of the viewer at the time of rating on an image. スライドショー時の再生レイティング機能を説明するフローチャート。The flowchart explaining the reproduction | regeneration rating function at the time of a slide show. スライドショー後のレイティング結果をグラフ表示する際の表示例を示す図。The figure which shows the example of a display at the time of carrying out the graph display of the rating result after a slide show.

図1〜図5により本発明の一実施の形態を説明する。
図1は本実施形態におけるカメラの制御系を示すブロック図である。不図示の撮影レンズを透過した撮影光束は、光学ローパスフィルタ1を経て撮像センサ2にて撮像される。撮像センサ2の動作は、タイミングジェネレータ(TG)3によって制御される。
An embodiment of the present invention will be described with reference to FIGS.
FIG. 1 is a block diagram showing a camera control system in the present embodiment. An imaging light beam that has passed through an imaging lens (not shown) is imaged by an imaging sensor 2 through an optical low-pass filter 1. The operation of the image sensor 2 is controlled by a timing generator (TG) 3.

撮像センサ2の光電変換出力である撮像信号は、A/Dコンバータ4でデジタル信号に変換されて画像処理MCU5に入力され、DSP(デジタル信号処理装置)5aで処理されて画像データが生成される。画像データは、画像ファイルとしてメモリカード6等の画像記録媒体に記録される。   An imaging signal that is a photoelectric conversion output of the imaging sensor 2 is converted into a digital signal by the A / D converter 4 and input to the image processing MCU 5, and processed by a DSP (digital signal processing device) 5 a to generate image data. . The image data is recorded on an image recording medium such as the memory card 6 as an image file.

再生モード時には、メモリカード6等に記録された画像ファイルを読み出し、DSP5aおよび表示出力部5bの処理を経た後、内蔵LCDユニット7に画像として表示することができる。LCDユニット7は、例えばカメラ背面に設けられたカラー液晶モニタである。また再生モードでは、スライドショーの作成および実行が可能である。スライドショーは、メモリカード6内の複数の画像データを、所定時間間隔で順次入れ替えてLCDユニット7に表示する機能である。   In the reproduction mode, an image file recorded on the memory card 6 or the like is read out, and after being processed by the DSP 5a and the display output unit 5b, can be displayed as an image on the built-in LCD unit 7. The LCD unit 7 is a color liquid crystal monitor provided on the back of the camera, for example. In the playback mode, a slide show can be created and executed. The slide show is a function for displaying a plurality of image data in the memory card 6 on the LCD unit 7 by sequentially exchanging them at a predetermined time interval.

さらに、画像データをビデオ信号に変換し、ビデオ出力部8を介してTVなどの外部装置に表示することもできる。また、高解像度出力トランスミッター9を介して画像ファイルを外部のハイビジョンTV等へ出力できる。   Furthermore, the image data can be converted into a video signal and displayed on an external device such as a TV via the video output unit 8. Further, the image file can be output to an external high-definition TV or the like via the high-resolution output transmitter 9.

画像処理MCU5には、マイク10、スピーカ11およびサブカメラ12が接続され、マイク10を介して入力された音声データを記録したり、記録した音声データをスピーカ11から再生することができる。サブカメラ12は、専用の撮影レンズや撮像センサ等を有し、LCDユニット7上の画像を鑑賞する鑑賞者の顔を撮像可能な位置に設けられている。例えばLCDユニット7がカメラ背面に設けられる場合は、サブカメラ12の撮影レンズもカメラ背面に設けられる。   A microphone 10, a speaker 11, and a sub camera 12 are connected to the image processing MCU 5, and audio data input through the microphone 10 can be recorded and recorded audio data can be reproduced from the speaker 11. The sub camera 12 has a dedicated photographing lens, an image sensor, and the like, and is provided at a position where the face of the viewer who appreciates the image on the LCD unit 7 can be imaged. For example, when the LCD unit 7 is provided on the back side of the camera, the photographing lens of the sub camera 12 is also provided on the back side of the camera.

画像処理MCU5に接続されたサブMCU20は、レリーズボタン21や他の操作部22の操作に応答し、センサ(AFセンサ,AEセンサなど)22Aからの入力情報や、姿勢検出部23から入力されるカメラの姿勢情報等に基づいて各種演算を行い、その演算結果に基づいてカメラ駆動部24を制御する。カメラ駆動部24は、AF駆動部(レンズ駆動部)や、絞り駆動部、ミラー駆動部などから構成される。   The sub MCU 20 connected to the image processing MCU 5 responds to the operation of the release button 21 and other operation unit 22 and receives input information from the sensor (AF sensor, AE sensor, etc.) 22A and the posture detection unit 23. Various calculations are performed based on camera posture information and the like, and the camera drive unit 24 is controlled based on the calculation results. The camera driving unit 24 includes an AF driving unit (lens driving unit), an aperture driving unit, a mirror driving unit, and the like.

次に、画像のレイティング機能について説明する。
本実施形態のカメラは、画像再生中の鑑賞者の表情や発声を検出し、それらの検出結果に基づいて画像を自動的に評価する機能を有している。以下、この機能を「再生レイティング機能」と呼ぶ。
Next, the image rating function will be described.
The camera according to the present embodiment has a function of detecting the facial expression and utterance of the viewer during image reproduction and automatically evaluating the image based on the detection results. Hereinafter, this function is referred to as a “reproduction rating function”.

この機能を実現するために、カメラは顔認識機能、表情認識機能および音声認識機能を備えている。顔認識は、公知のように画像データ中に被写体として人物が存在する場合に、その人物の顔領域の位置および大きさを検出する機能であり、一般的には顔部分にピントや露出を合わせるのに用いられる。表情認識は、顔認識で認識された画像データ中の顔の表情を認識する機能であり、例えば「笑顔」、「喜び」、「悲しみ」、「怒り」、「驚き」といった喜怒哀楽の表情を検出できる。これは、例えば特開2001−51338号公報に記載されている技術を用いて実現可能である。音声認識は、公知のように音声データから音声の内容を認識する機能である。   In order to realize this function, the camera has a face recognition function, a facial expression recognition function, and a voice recognition function. Face recognition is a function for detecting the position and size of a person's face area when there is a person as a subject in image data as is well known, and generally focuses and exposes the face portion. Used for Facial expression recognition is a function that recognizes facial expressions in image data recognized by face recognition. For example, facial expressions such as “smile”, “joy”, “sadness”, “anger”, “surprise” Can be detected. This can be realized by using a technique described in, for example, Japanese Patent Application Laid-Open No. 2001-51338. Speech recognition is a function for recognizing speech content from speech data as is well known.

再生レイティング機能は、その選択/非選択を設定画面等で指定することができる。この機能が選択されているときに再生モードで画像再生を行うと、サブカメラ12およびマイク10が作動し、それぞれ撮像および録音を行う。サブカメラ12は、上述したように画像の鑑賞者の顔を撮像して画像データを生成する。   The playback rating function can specify selection / non-selection on a setting screen or the like. If an image is reproduced in the reproduction mode when this function is selected, the sub camera 12 and the microphone 10 are operated to perform imaging and recording, respectively. As described above, the sub camera 12 captures the face of the viewer of the image and generates image data.

画像処理MCU5は、サブカメラ12によって得られた顔画像データに対して顔認識を行い、続いて表情認識を行う。また録音された音声データに対して音声認識を行い、音声の内容を取得するとともに、音声の大きさやトーンなどを検出する。そして、表情認識および音声認識の結果に基づいて、再生された画像の評価を行う。   The image processing MCU 5 performs face recognition on the face image data obtained by the sub camera 12, and then performs facial expression recognition. In addition, voice recognition is performed on the recorded voice data to acquire the contents of the voice and to detect the volume and tone of the voice. Then, the reproduced image is evaluated based on the results of facial expression recognition and voice recognition.

例えば「笑顔」や「喜び」、「驚き」の表情が検出された場合は点数が加算され、「悲しみ」、「怒り」等では点数が減算される。いずれの喜怒哀楽の表情も検出されない場合は点数の加算/減算は行わない。なお、複数人で画像を鑑賞する場合は複数の顔が認識されるが、この場合は複数の顔に対する表情認識結果に基づいて点数が決定される。例えば、各顔に対して点数を求め、それらの最大値あるいは平均値を求める。表情の度合いに基づいて点数を変えてもよい(例えば、同じ「笑顔」でも、微笑み程度と大笑いとで点数を変える)。   For example, when an expression of “smile”, “joy”, or “surprise” is detected, the score is added, and when “sadness”, “anger”, etc., the score is subtracted. If no emotional expression is detected, score addition / subtraction is not performed. In addition, when a plurality of people appreciate an image, a plurality of faces are recognized. In this case, the score is determined based on the expression recognition result for the plurality of faces. For example, the score is obtained for each face, and the maximum value or average value thereof is obtained. The score may be changed based on the degree of facial expression (for example, even if the same “smile” is used, the score is changed depending on the degree of smile and big smile).

また音声では、声の大きさ、トーンに応じて点数を加算/減算する。例えば声が大きいほど、あるいはトーンが高いほど感動が大きいと判断し、点数を加算する。さらに上記音声認識の結果に基づき、「すごい」などの誉め言葉が検出された場合は点数を加算する。   For voice, the score is added / subtracted according to the loudness and tone. For example, it is determined that the greater the voice or the higher the tone, the greater the impression, and the score is added. Further, based on the result of the voice recognition, when an honor word such as “awesome” is detected, a score is added.

上記表情や音声に加え、体動による点数付けを行ってもよい。体動については、サブカメラ12によって繰り返し得られる画像データから判断でき、例えば鑑賞者の体が大きく動いた場合や、手を叩く仕草が検出された場合に点数を加算するようにすればよい。さらに、サブカメラ12により動画撮影を行い、それに基づいて表情認識や体動認識を行ってもよい。   In addition to the facial expressions and voices, scoring may be performed by body movement. The body movement can be determined from the image data repeatedly obtained by the sub-camera 12. For example, the score may be added when the body of the viewer moves greatly or when a gesture of tapping the hand is detected. Furthermore, moving image shooting may be performed by the sub camera 12, and facial expression recognition and body movement recognition may be performed based on the moving image.

なお、何らかの理由によりサブカメラ12の画像中に顔領域が検出されなかった場合は、表情認識や体動認識による点数付けは行えない。この場合は、今回の点数付けは行わないようにしてもよいし、音声の結果のみで点数付けを行うようにしてもよい。また、音声が検出されなかった場合は、今回の点数付けは行わないようにしてもよいし、顔領域が検出されていれば、表情認識や体動認識のみによる点数付けを行うようにしてもよい。   If a face area is not detected in the image of the sub camera 12 for some reason, scoring cannot be performed by facial expression recognition or body motion recognition. In this case, the current scoring may not be performed, or the scoring may be performed only by the audio result. If no voice is detected, the current scoring may not be performed. If a face area is detected, scoring may be performed only by facial expression recognition or body motion recognition. Good.

上記鑑賞者の撮像および録音から点数付けまでの一連の処理は、1枚の画像の再生中に最低1度行えばよいが、再生中に所定の周期で繰り返し行い、各回の点数の最大値または平均値をその画像の点数としてもよい。   The series of processes from the imaging and recording of the viewer to scoring may be performed at least once during the reproduction of one image. However, it is repeated at a predetermined cycle during reproduction, and the maximum value of each time or The average value may be the score of the image.

以上のようにして求められた点数をそのまま画像の評価としてもよいが、点数に基づいて5段階評価、あるいは10段階評価などの評価を行ってもよい。   The score obtained as described above may be used as the evaluation of the image as it is, but an evaluation such as a five-level evaluation or a ten-level evaluation may be performed based on the score.

決定された評価は、当該画像に対応づけられて記憶される。一般に画像は、コンピュータで扱うことが可能な画像ファイルとしてメモリカード6等の記録媒体に記録されるが、その画像ファイルのヘッダ情報として上記評価情報を埋め込むことが可能である。画像ファイルとは別に評価データを記憶してもよい。   The determined evaluation is stored in association with the image. In general, an image is recorded on a recording medium such as a memory card 6 as an image file that can be handled by a computer. The evaluation information can be embedded as header information of the image file. Evaluation data may be stored separately from the image file.

レイティングがなされた画像を内蔵LCDユニット7に再生表示すると、その画像ファイルに対応づけられた評価情報が読み出され、画像とともに表示される。図2はその表示例を示し、5段階評価の結果が星の数で画像に重ね合わせて表示されている。画像の余白部分に表示してもよい。このレイティング表示は、画像選択用のサムネイル表示において各サムネイル画像にも表示することができる。   When the rated image is reproduced and displayed on the built-in LCD unit 7, the evaluation information associated with the image file is read and displayed together with the image. FIG. 2 shows an example of the display, in which the result of the five-level evaluation is displayed superimposed on the image with the number of stars. You may display in the margin part of an image. This rating display can also be displayed on each thumbnail image in the thumbnail display for image selection.

一方、図3に示すように、レイティングに使用した画像(鑑賞者を撮影したものであり、静止画または動画)をサブウィンドウSWに表示したり、レイティングに使用した音声を再生することで、鑑賞者の反応付きで画像を楽しむことができる。これを実現するには、鑑賞者を撮影した画像データや録音した音声データを、評価の対象となった画像ファイルに対応づけて保存しておく必要がある。   On the other hand, as shown in FIG. 3, an image used for the rating (a photograph of the viewer, a still image or a moving image) is displayed on the sub-window SW, and the audio used for the rating is reproduced, thereby enabling the viewer. You can enjoy images with the reaction. In order to realize this, it is necessary to store the image data of the viewer and the recorded audio data in association with the image file to be evaluated.

ここで、レイティングは、画像の分類や並び替え、画像検索におけるキーとしても利用できる。例えば、レイティングがなされた画像ファイルは、評価別に作成したフォルダに自動的に移動するようにしてもよい(例えば、5つ星の画像ファイルは5つ星フォルダに入れるなど)。また、画像を評価順に並べ替えたり、評価の高い(低い)幾つかの画像を選び出して表示したり(例えば、トップ10、ワースト10など、)、特定の評価(例えば、5つ星、3つ星以上など)の画像のみを検索してサムネイル表示したりすることも容易である。   Here, the rating can also be used as a key for image classification, rearrangement, and image search. For example, the rated image file may be automatically moved to a folder created for each evaluation (for example, a five-star image file is put in a five-star folder). In addition, images are rearranged in the order of evaluation, some images with high (low) evaluation are selected and displayed (for example, top 10 and worst 10), and specific evaluation (for example, 5 stars, 3 stars) It is also easy to search only thumbnail images and display thumbnails.

このようなレイティング結果を用いた処理は、パーソナルコンピュータ等の外部装置でも実行可能である。ただし、その場合は外部装置に専用のソフトウェアを組み込むとともに、レイティング済みの画像ファイルを転送する必要がある。   Such processing using the rating result can also be executed by an external device such as a personal computer. However, in that case, it is necessary to incorporate dedicated software in the external device and transfer the rated image file.

なお、レイティング済みの画像を再生した場合は、再度のレイティングを行わないようにしてもよいし、再度レイティングを行って結果を書き換えたり、結果を累積するようにしてもよい。上記いずれかを選択可能としてもよい。   Note that when a rating-completed image is reproduced, the rating may not be performed again, or the rating may be performed again to rewrite the result, or the result may be accumulated. Any of the above may be selectable.

以上のような再生レイティング機能は、ユーザが1枚ずつ画像を選択して再生するときも可能であるし、スライドショー実行時にも行うことができる。   The playback rating function as described above can be performed when the user selects and plays back images one by one or when a slide show is executed.

図4はスライドショーにおける再生レイティング処理の一例を示すフローチャートである。
スライドショーが開始されるとこのプログラムが起動され、まずステップS1で枚数カウンタNを「1」とする。ステップS2では、N枚目の画像を再生表示し、ステップS3でサブカメラ12による撮像とマイク10による録音とを行う。ステップS4では、サブカメラ12で得られた画像データに対して顔認識を行い、ステップS5で顔領域が検出されたか否かを判定する。顔領域が検出された場合はステップS6で表情認識を行うとともに、ステップS7で体動認識を行う。またステップS8では、録音された音声データに対して音の高さやトーンなどを検出するとともに、音声認識を行う。ステップS9では、ステップS6〜S8の結果に基づいて上述したようにN枚目の表示画像の点数付けを行う。
FIG. 4 is a flowchart showing an example of the playback rating process in the slide show.
When the slide show is started, this program is started. First, in step S1, the number counter N is set to “1”. In step S2, the Nth image is reproduced and displayed, and in step S3, imaging by the sub camera 12 and recording by the microphone 10 are performed. In step S4, face recognition is performed on the image data obtained by the sub camera 12, and it is determined whether or not a face area is detected in step S5. If a face area is detected, facial expression recognition is performed in step S6 and body motion recognition is performed in step S7. In step S8, the pitch and tone of the recorded voice data are detected and voice recognition is performed. In step S9, the Nth display image is scored as described above based on the results of steps S6 to S8.

ステップS10では、N枚目の画像の表示開始から所定時間(スライドショーにおける1枚の表示時間)が経過したか否かを判定し、まだ経過していない場合はステップS3に戻り、経過した場合はステップS11に進む。ステップS11では、例えば各回の点数の最大値に基づいてN枚目の画像の評価を決定する。決定された評価情報は、当該画像ファイルに対応づけられて記憶される。   In step S10, it is determined whether or not a predetermined time (one display time in the slide show) has elapsed since the start of displaying the Nth image. If not, the process returns to step S3. Proceed to step S11. In step S11, the evaluation of the Nth image is determined based on, for example, the maximum value of each time score. The determined evaluation information is stored in association with the image file.

ステップS12ではスライドショーの終了か否かを判定する。予め決められた画像が全て再生された場合や、ユーザがスライドショーを強制終了させる操作を行った場合は、ステップS12が肯定されてステップS13に進む。ステップS13では、例えば図5に示すように、各画像の評価結果をグラフ表示する。図5において、縦線は各画像の評価を表示順に示したものであり、特に評価が基準値以上の画像については、そのサムネイル画像が表示される。これにより高評価の画像を一目で確認できる。   In step S12, it is determined whether or not the slide show has ended. If all the predetermined images have been reproduced, or if the user has performed an operation for forcibly terminating the slide show, step S12 is affirmed and the process proceeds to step S13. In step S13, for example, as shown in FIG. 5, the evaluation result of each image is displayed in a graph. In FIG. 5, vertical lines indicate the evaluation of each image in the display order, and thumbnail images are displayed particularly for images whose evaluation is greater than or equal to the reference value. Thereby, a highly evaluated image can be confirmed at a glance.

まだスライドショーが終了でない場合はステップS14に進み、NをカウントアップしてステップS2に戻る。   If the slide show is not yet finished, the process proceeds to step S14, N is incremented, and the process returns to step S2.

なお、鑑賞者によって評価が異なることに鑑み、レイティングを鑑賞者ごとに行ってもよい。つまり1枚の画像に対し、鑑賞者Aによる評価、鑑賞者Bによる評価、鑑賞者Cによる評価・・・を別々に求めて記憶できるようにする。これを実現するには、カメラに設けられたデータベースに、予め複数の人物の名前(A,B,C・・・)と、顔の特徴データとを対応づけて登録しておく。顔の特徴データは、各人の顔を撮像したデータからカメラが自動的に取得する。その後、再生レイティング機能を実行すると、カメラはサブカメラ12による画像データに対して顔認識を行い、上記データベース検索を行って鑑賞者が誰であるか(複数人の場合は誰と誰であるか)を認識する。そして、各人に対して表情認識を行い、その結果に基づいて各人の評価を求めて記憶する。これによれば、各鑑賞者がどのような画像を好むかが分かって面白い。   In view of the fact that the evaluation varies depending on the viewer, the rating may be performed for each viewer. That is, the evaluation by the viewer A, the evaluation by the viewer B, the evaluation by the viewer C,... Can be separately obtained and stored for one image. To realize this, a plurality of person names (A, B, C...) And facial feature data are registered in advance in a database provided in the camera. The facial feature data is automatically acquired by the camera from data obtained by imaging each person's face. After that, when the playback rating function is executed, the camera performs face recognition on the image data from the sub camera 12, and performs the above database search to determine who is the viewer (who and who in the case of multiple users). ) Then, facial expression recognition is performed on each person, and each person's evaluation is obtained and stored based on the result. According to this, it is interesting to know what kind of images each viewer likes.

また、サブカメラで得た画像をレイティングに用いるようにしたが、例えばレンズ回転式のカメラで、LCDユニットを視認する鑑賞者に撮影レンズを向けることが可能なものであれば、メインのカメラ機能で得た画像をレイティングに用いることができ、サブカメラは不要となる。また、TV等の外部装置に画像を表示しているときに上記再生レイティング機能が働くようにした場合も、メインのカメラ機能でレイティング用の画像を得ることができる。   In addition, the image obtained by the sub-camera is used for rating. For example, if the camera is a lens-rotating type camera that can direct the taking lens toward the viewer viewing the LCD unit, the main camera function The image obtained in step 1 can be used for rating, and a sub camera is not required. Also, when the playback rating function is activated when an image is displayed on an external device such as a TV, a rating image can be obtained with the main camera function.

さらに、評価すべきコンテンツは静止画に限定されず、動画や音楽、その他のコンテンツでもよい。   Furthermore, the content to be evaluated is not limited to a still image, and may be a moving image, music, or other content.

2 撮像センサ
5 画像処理MCU
7 内蔵LCDユニット
10 マイク
12 サブカメラ
2 Imaging sensor 5 Image processing MCU
7 Built-in LCD unit 10 Microphone 12 Sub camera

Claims (10)

コンテンツを再生する再生手段と、
コンテンツの再生中に鑑賞者の表情および/または音声を検出する検出手段と、
前記検出手段の検出結果に基づいて前記再生されたコンテンツを評価する評価手段とを具備することを特徴とする電子機器。
Playback means for playing back content;
Detection means for detecting the viewer's facial expression and / or audio during content playback;
An electronic device comprising: an evaluation unit that evaluates the reproduced content based on a detection result of the detection unit.
前記検出手段は、前記コンテンツを鑑賞する鑑賞者を撮像する撮像部と、該撮像部の出力から鑑賞者の表情を検出する表情検出部とを含むことを特徴とする請求項1に記載の電子機器。 The electronic device according to claim 1, wherein the detection unit includes an imaging unit that images a viewer who appreciates the content, and a facial expression detection unit that detects a facial expression of the viewer from an output of the imaging unit. machine. 前記再生手段は、前記コンテンツとしての画像を内蔵表示装置または外部の表示装置に再生表示する画像再生手段であることを特徴とする請求項1または2に記載の電子機器。 3. The electronic apparatus according to claim 1, wherein the reproduction unit is an image reproduction unit that reproduces and displays an image as the content on a built-in display device or an external display device. 前記再生手段は、前記コンテンツとしての画像を内蔵表示装置に再生表示する画像再生手段であり、前記撮像部は、前記内蔵表示装置の画像を鑑賞する鑑賞者を撮像可能な位置に設けられていることを特徴とする請求項2に記載の電子機器。 The reproduction unit is an image reproduction unit that reproduces and displays an image as the content on a built-in display device, and the imaging unit is provided at a position where a viewer who appreciates the image on the built-in display device can be imaged. The electronic device according to claim 2. 前記検出した音声から音声の内容を取得する取得手段を更に備え、前記評価手段は、前記音声の内容に基づいて前記再生されたコンテンツを評価することを特徴とする請求項1に記載の電子機器。 The electronic apparatus according to claim 1, further comprising an acquisition unit configured to acquire audio content from the detected audio, wherein the evaluation unit evaluates the reproduced content based on the audio content. . 被写体を撮像して前記コンテンツとしての画像を得る撮像手段を更に備えることを特徴とする請求項1〜5のいずれか1項に記載の電子機器。 The electronic apparatus according to claim 1, further comprising an imaging unit that captures an image of a subject and obtains an image as the content. 前記評価手段による評価後に前記コンテンツを再生する際に、当該コンテンツの評価を報知する報知手段を更に備えることを特徴とする請求項1〜6のいずれか1項に記載の電子機器。 The electronic apparatus according to claim 1, further comprising a notification unit that notifies the evaluation of the content when the content is reproduced after the evaluation by the evaluation unit. 前記評価手段による評価後に前記コンテンツを再生する際に、前記撮像部の出力を画像として表示することを特徴とする請求項2に記載の電子機器。 The electronic apparatus according to claim 2, wherein when the content is reproduced after the evaluation by the evaluation unit, the output of the imaging unit is displayed as an image. 前記評価手段の評価結果を当該コンテンツと対応づけて保存することを特徴とする請求項1〜8のいずれか1項に記載の電子機器。 The electronic device according to claim 1, wherein the evaluation result of the evaluation unit is stored in association with the content. 前記検出手段は、鑑賞者の前記表情および/または音声に加えて鑑賞者の体動をも検出することを特徴とする請求項1〜9のいずれか1項に記載の電子機器。 The electronic device according to any one of claims 1 to 9, wherein the detection unit detects a body movement of the viewer in addition to the facial expression and / or voice of the viewer.
JP2009082285A 2009-03-30 2009-03-30 Electronic apparatus Pending JP2010237761A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009082285A JP2010237761A (en) 2009-03-30 2009-03-30 Electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009082285A JP2010237761A (en) 2009-03-30 2009-03-30 Electronic apparatus

Publications (1)

Publication Number Publication Date
JP2010237761A true JP2010237761A (en) 2010-10-21

Family

ID=43092049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009082285A Pending JP2010237761A (en) 2009-03-30 2009-03-30 Electronic apparatus

Country Status (1)

Country Link
JP (1) JP2010237761A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012108447A (en) * 2010-10-22 2012-06-07 Tokyo Ohka Kogyo Co Ltd Resist composition and resist pattern forming method
JP2012155631A (en) * 2011-01-27 2012-08-16 Fujitsu Ltd Facial expression determining program and facial expression determining device
JP2013114595A (en) * 2011-11-30 2013-06-10 Canon Inc Information processor, information processing method, and program
JP2014206903A (en) * 2013-04-15 2014-10-30 オムロン株式会社 Facial expression estimation device, control method, control program, and recording medium
EP2824538A1 (en) * 2013-07-10 2015-01-14 LG Electronics, Inc. Electronic device and control method thereof
JP2015133625A (en) * 2014-01-14 2015-07-23 キヤノン株式会社 Image reproduction device, control method, and control program thereof
JP2015220615A (en) * 2014-05-16 2015-12-07 株式会社ニコン Imaging device
JP2016076259A (en) * 2015-12-21 2016-05-12 キヤノン株式会社 Information processing apparatus, information processing method, and program
WO2018142686A1 (en) * 2017-01-31 2018-08-09 ソニー株式会社 Information processing device, information processing method, and program
JP2018148564A (en) * 2018-04-04 2018-09-20 株式会社ニコン Imaging device
JP2020188461A (en) * 2019-05-10 2020-11-19 ハイパーコネクト インコーポレイテッド Terminal, server, and method of operating thereof
WO2023163197A1 (en) * 2022-02-28 2023-08-31 パイオニア株式会社 Content evaluation device, content evaluation method, program, and storage medium

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012108447A (en) * 2010-10-22 2012-06-07 Tokyo Ohka Kogyo Co Ltd Resist composition and resist pattern forming method
JP2012155631A (en) * 2011-01-27 2012-08-16 Fujitsu Ltd Facial expression determining program and facial expression determining device
US9224037B2 (en) 2011-11-30 2015-12-29 Canon Kabushiki Kaisha Apparatus and method for controlling presentation of information toward human object
JP2013114595A (en) * 2011-11-30 2013-06-10 Canon Inc Information processor, information processing method, and program
JP2014206903A (en) * 2013-04-15 2014-10-30 オムロン株式会社 Facial expression estimation device, control method, control program, and recording medium
US9509959B2 (en) 2013-07-10 2016-11-29 Lg Electronics Inc. Electronic device and control method thereof
EP2824538A1 (en) * 2013-07-10 2015-01-14 LG Electronics, Inc. Electronic device and control method thereof
JP2015133625A (en) * 2014-01-14 2015-07-23 キヤノン株式会社 Image reproduction device, control method, and control program thereof
JP2015220615A (en) * 2014-05-16 2015-12-07 株式会社ニコン Imaging device
JP2016076259A (en) * 2015-12-21 2016-05-12 キヤノン株式会社 Information processing apparatus, information processing method, and program
WO2018142686A1 (en) * 2017-01-31 2018-08-09 ソニー株式会社 Information processing device, information processing method, and program
JPWO2018142686A1 (en) * 2017-01-31 2019-12-19 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2018148564A (en) * 2018-04-04 2018-09-20 株式会社ニコン Imaging device
JP2020188461A (en) * 2019-05-10 2020-11-19 ハイパーコネクト インコーポレイテッド Terminal, server, and method of operating thereof
WO2023163197A1 (en) * 2022-02-28 2023-08-31 パイオニア株式会社 Content evaluation device, content evaluation method, program, and storage medium

Similar Documents

Publication Publication Date Title
JP2010237761A (en) Electronic apparatus
US9013604B2 (en) Video summary including a particular person
JP5474062B2 (en) Content reproduction apparatus, content reproduction method, program, and integrated circuit
JP4618166B2 (en) Image processing apparatus, image processing method, and program
US9685199B2 (en) Editing apparatus and editing method
KR101444103B1 (en) Media signal generating method and apparatus using state information
US20120293686A1 (en) Video summary including a feature of interest
JP2010219692A (en) Image capturing apparatus and camera
EP1347455A2 (en) Contents recording/playback apparatus and contents edit method
JP2009141555A (en) Imaging apparatus with voice input function and its voice recording method
JP2009171176A (en) Reproduction apparatus, its control method, and program
JP2010252008A (en) Imaging device, displaying device, reproducing device, imaging method and displaying method
JP2006099532A (en) Information processor, image data output method and program
JP2008199330A (en) Moving image management apparatus
JP2010200079A (en) Photography control device
JP2013117908A (en) Image processor, image processing method, and imaging apparatus
JP2011119936A (en) Photographing device and reproducing method
JP2010171849A (en) Image reproducing apparatus and electronic camera
JP6166070B2 (en) Playback apparatus and playback method
JP2010187320A (en) Image recording device, image classifying device, image display device, and program
JP2007266661A (en) Imaging apparatus, information processor, and imaging display system
JP2017211995A (en) Device, method, and program for playback, and device, method, and program for sound summarization
JP2008091978A (en) Imaging apparatus and image storing method
JP2006311451A (en) Image reproducing apparatus, and electronic camera
JP5454391B2 (en) Image processing device