JP2022088329A - Voice reading system, voice reading apparatus, information processing apparatus, imaging apparatus, and computer program - Google Patents

Voice reading system, voice reading apparatus, information processing apparatus, imaging apparatus, and computer program Download PDF

Info

Publication number
JP2022088329A
JP2022088329A JP2021190285A JP2021190285A JP2022088329A JP 2022088329 A JP2022088329 A JP 2022088329A JP 2021190285 A JP2021190285 A JP 2021190285A JP 2021190285 A JP2021190285 A JP 2021190285A JP 2022088329 A JP2022088329 A JP 2022088329A
Authority
JP
Japan
Prior art keywords
unit
image pickup
analysis unit
voice
analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021190285A
Other languages
Japanese (ja)
Inventor
里葉子 芦田
Riyoko Ashida
直都 神山
Naoto Kamiyama
美貴 角場
Miki Kadoba
亮 町田
Akira Machida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Publication of JP2022088329A publication Critical patent/JP2022088329A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

To provide a voice reading system, a voice reading apparatus, an information apparatus, an imaging apparatus, and a computer program that children and their families can enjoy.SOLUTION: A voice reading system according to the present invention has an imaging apparatus, and a main body apparatus having a mount surface on which an object with description of an imaging object can be mounted. The imaging apparatus has a holding part, a window part through which a user can view an imaging target, an imaging unit which can capture the imaging object while the imaging object is being view by a user through the window part, and a transmission unit for transmitting the image data obtained by capturing the object by the imaging unit. The main body apparatus has a reception unit for receiving the image data, an analysis unit for analyzing the image data received by the reception unit, and an output unit for outputting a sound based on an analysis result of the analyzing unit.SELECTED DRAWING: Figure 1

Description

本発明は、音声読み上げシステム、音声読み上げ装置、情報処理装置、撮像装置及びコンピュータプログラムに関する。 The present invention relates to a voice reading system, a voice reading device, an information processing device, an image pickup device, and a computer program.

特許文献1には、スマートフォンのカメラ機能を用いて印刷物の文字を認識させて、認識した文字を読み上げることにより、小さな文字の認識が可能となるアプリケーションソフトが開示されている。 Patent Document 1 discloses application software capable of recognizing small characters by recognizing characters in a printed matter using a camera function of a smartphone and reading the recognized characters aloud.

特開2014-127197号公報Japanese Unexamined Patent Publication No. 2014-127197

しかし、特許文献1のアプリケーションソフトは、近視や老眼のユーザにとっては、印刷物が読み易くなり有用であるが、単に文章を読み上げるだけなので、遊び心に欠け、子供やその家族が興味を持つものではなかった。 However, the application software of Patent Document 1 is useful for users with myopia and presbyopia because the printed matter is easy to read, but it lacks playfulness because it simply reads out the text, and is not of interest to children or their families. rice field.

本発明は、斯かる事情に鑑みてなされたものであり、子供やその家族が楽しむことができる音声読み上げシステム、音声読み上げ装置、情報処理装置、撮像装置及びコンピュータプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a voice reading system, a voice reading device, an information processing device, an image pickup device, and a computer program that can be enjoyed by children and their families. ..

本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、音声読み上げシステムは、撮像装置と、撮像対象が記載された対象物を載置可能な載置面を有する本体装置とを備え、前記撮像装置は、把持部と、撮像対象を覗き込むための窓部と、前記窓部を介して撮像対象が覗き込まれた状態で前記撮像対象を撮像可能な撮像部と、前記撮像部で撮像して得られた画像データを前記本体装置へ送信する送信部とを備え、前記本体装置は、前記画像データを受信する受信部と、前記受信部で受信した画像データを解析する解析部と、前記解析部の解析結果に基づいて音声を出力する出力部とを備える。 The present application includes a plurality of means for solving the above problems, and to give an example thereof, the voice reading system is a main body having an image pickup device and a mounting surface on which an object on which an image pickup target is described can be placed. The image pickup device includes a grip portion, a window portion for looking into the image pickup target, and an image pickup unit capable of taking an image of the image pickup target with the image pickup target being looked into through the window portion. The main unit includes a transmitting unit that transmits image data obtained by imaging with the imaging unit to the main unit, and the main unit receives a receiving unit that receives the image data and an image data received by the receiving unit. It includes an analysis unit for analysis and an output unit for outputting voice based on the analysis result of the analysis unit.

本発明によれば、子供やその家族が楽しむことができる。 According to the present invention, children and their families can enjoy themselves.

第1実施形態の音声読み上げシステムの構成の一例を示す外観斜視図式図である。It is an external perspective diagram which shows an example of the structure of the voice reading system of 1st Embodiment. 第1実施形態の音声読み上げシステムの構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the voice reading system of 1st Embodiment. BGMリストの構成の一例を示す模式図である。It is a schematic diagram which shows an example of the structure of a BGM list. 音(サウンド)の一例を示す説明図である。It is explanatory drawing which shows an example of a sound (sound). 補正部による撮像範囲の補正方法の一例を示す模式図である。It is a schematic diagram which shows an example of the correction method of the image pickup range by a correction part. 第1実施形態の音声読み上げシステムの処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure of the voice reading system of 1st Embodiment. 音声読み上げ装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the voice reading apparatus. 第3実施形態の音声読み上げシステムの構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the voice reading system of 3rd Embodiment. 第3実施形態の音声読み上げシステムの処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure of the voice reading system of 3rd Embodiment. 第4実施形態の情報処理システムの構成の一例を示す図である。It is a figure which shows an example of the structure of the information processing system of 4th Embodiment. 第4実施形態の情報処理システムの処理手順の一例を示す図である。It is a figure which shows an example of the processing procedure of the information processing system of 4th Embodiment. 興味関心分析機能の処理手順の一例を示す図である。It is a figure which shows an example of the processing procedure of an interest analysis function. 興味関心分析機能の分析結果の一例を示す図である。It is a figure which shows an example of the analysis result of the interest interest analysis function. 興味関心タイプ分析機能の処理手順の一例を示す図である。It is a figure which shows an example of the processing procedure of the interest type analysis function. 興味関心タイプ分析機能の分析結果の一例を示す図である。It is a figure which shows an example of the analysis result of the interest type analysis function. 活動タイプ分析機能の処理手順の一例を示す図である。It is a figure which shows an example of the processing procedure of an activity type analysis function. 活動タイプ分析機能の分析結果の一例を示す図である。It is a figure which shows an example of the analysis result of the activity type analysis function. 好きな色分析機能の処理手順の一例を示す図である。It is a figure which shows an example of the processing procedure of a favorite color analysis function. 好きな色分析機能の分析結果の一例を示す図である。It is a figure which shows an example of the analysis result of the favorite color analysis function. 第5実施形態の情報処理システムの構成の一例を示す図である。It is a figure which shows an example of the structure of the information processing system of 5th Embodiment. 第5実施形態の情報処理システムの処理手順の一例を示す図である。It is a figure which shows an example of the processing procedure of the information processing system of 5th Embodiment. 第6実施形態の情報処理システムの構成の一例を示す図である。It is a figure which shows an example of the structure of the information processing system of 6th Embodiment. 第6実施形態の撮像装置50の処理手順の一例を示す図である。It is a figure which shows an example of the processing procedure of the image pickup apparatus 50 of 6th Embodiment. 興味関心分析結果の推移の一例を示す図である。It is a figure which shows an example of the transition of the interest analysis result. 年代別・地域別・時系列での興味関心分析結果の一例を示す図である。It is a figure which shows an example of the interest analysis result by age group, region, and time series.

(第1実施形態)
以下、本発明の実施の形態を図面に基づいて説明する。図1は第1実施形態の音声読み上げシステム100の構成の一例を示す外観斜視図である。音声読み上げシステム100は、撮像装置50、及び本体装置10を備える。撮像装置50は、把持部62と、把持部62の一端側に設けられた窓部61を備える。把持部62は、ユーザ(例えば、幼児や子供、その家族など)が撮像装置50を手に持つ際に保持する部分である。窓部61には、レンズ(拡大鏡)、透明の樹脂やガラスが設けられ、あるいは単に開口が形成され、ユーザが窓部61を介して対象物(例えば、絵本、図鑑、児童書など)に記載された撮像対象(例えば、文章などの文字列、写真を含む図など)を覗き込むことができる。
(First Embodiment)
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is an external perspective view showing an example of the configuration of the voice reading system 100 of the first embodiment. The voice reading system 100 includes an image pickup device 50 and a main body device 10. The image pickup apparatus 50 includes a grip portion 62 and a window portion 61 provided on one end side of the grip portion 62. The grip portion 62 is a portion held by a user (for example, an infant, a child, a family member, etc.) when holding the image pickup device 50 in his / her hand. A lens (magnifying glass), transparent resin or glass is provided in the window portion 61, or an opening is simply formed, and a user can use the window portion 61 to make an object (for example, a picture book, a picture book, a children's book, etc.) through the window portion 61. It is possible to look into the described imaging target (for example, a character string such as a sentence, a figure including a photograph, etc.).

また、撮像装置50は、窓部61を介して撮像対象が覗き込まれた状態で撮像対象を撮像可能な撮像部51、対象物までの距離を検出する距離センサ52、撮像部51による撮像開始操作を受け付けるボタン(シャッターボタン)63を備える。撮像部51及び距離センサ52は、把持部62の一方側(窓部61を介して撮像対象を覗き込む場合に撮像対象側)に設けられ、ボタン63は、把持部62の他方側(窓部61を介して撮像対象を覗き込む場合にユーザの顔側)に設けられている。撮像部51は、少なくとも1つのカメラで構成することができる。距離センサ52は、距離を検出できるセンサであればよい。なお、距離センサ52に代えて、複数のカメラの視差に応じて距離を計測してもよい。 Further, the image pickup apparatus 50 is started by the image pickup unit 51 capable of taking an image of the image pickup target in a state where the image pickup target is looked into through the window portion 61, the distance sensor 52 for detecting the distance to the object, and the image pickup unit 51. A button (shutter button) 63 for receiving an operation is provided. The image pickup unit 51 and the distance sensor 52 are provided on one side of the grip portion 62 (the image pickup target side when looking into the image pickup target through the window portion 61), and the button 63 is provided on the other side of the grip portion 62 (window portion). It is provided on the user's face side when looking into the image pickup target via 61). The image pickup unit 51 can be composed of at least one camera. The distance sensor 52 may be any sensor that can detect the distance. Instead of the distance sensor 52, the distance may be measured according to the parallax of a plurality of cameras.

本体装置10は、対象物を載置可能な載置面21を有する。載置面21は、平面視で矩形状をなし、載置面21の中央部23を間にした1対の縁辺部22それぞれから中央部23に向かって高さが小さくなるように傾斜している。これにより、絵本、図鑑、児童書などを見開き状態で載置面21に置くことができるとともに両頁の紙面が180度よりも小さい角度をなすように置くことができ、文書や図が見やすくなるように対象物を載置することができる。 The main body device 10 has a mounting surface 21 on which an object can be mounted. The mounting surface 21 has a rectangular shape in a plan view, and is inclined so that the height decreases from each of the pair of edge portions 22 sandwiching the central portion 23 of the mounting surface 21 toward the central portion 23. There is. As a result, picture books, pictorial books, children's books, etc. can be placed on the mounting surface 21 in a spread state, and the pages of both pages can be placed at an angle smaller than 180 degrees, making it easier to see documents and figures. The object can be placed as such.

本体装置10は、載置面21の傾斜する方向に沿って載置面21の他の1対の縁辺部に対象物の移動を規制する規制部24を備える。規制部24は、載置面21より突出した状態で設けられている。これにより、載置面21に載置した絵本、図鑑、児童書などが載置面21から滑り落ちることを防止できる。 The main body device 10 includes a regulating unit 24 that regulates the movement of an object on another pair of edge portions of the mounting surface 21 along the direction in which the mounting surface 21 is inclined. The regulating portion 24 is provided so as to protrude from the mounting surface 21. This makes it possible to prevent picture books, pictorial books, children's books, etc. placed on the mounting surface 21 from slipping off the mounting surface 21.

本体装置10は、載置面21に、撮像装置50を収容するための収容部25を形成してある。収容部25の平面視の形状は、撮像装置50の平面視の形状と同様の形状とすることができる。撮像装置50を収容部25に嵌め込む構成でもよく、磁石などを用いて、両者を吸着させるようにしてもよい。これにより、撮像装置50を紛失するおそれを防止するとともに幼児や子供には、後片付けの習慣を身に着けさせることができる。 The main body device 10 has an accommodating portion 25 for accommodating the image pickup apparatus 50 on the mounting surface 21. The shape of the accommodating portion 25 in a plan view can be the same as the shape of the image pickup device 50 in a plan view. The image pickup device 50 may be fitted into the accommodating portion 25, or both may be attracted to each other by using a magnet or the like. This prevents the risk of losing the image pickup device 50 and makes it possible for infants and children to get into the habit of cleaning up afterwards.

本体装置10は、本体装置10の状態を表示する表示灯(例えば、LEDなど)26を設けることができる。表示灯26は、電源駆動、バッテリ駆動、動作中、充電中、異常などの状態を表示することができる。なお、図示していないが、タッチ操作が可能な表示パネルを設けてもよい。表示パネルを介して、所要の設定操作を行うようにしてもよい。 The main body device 10 may be provided with an indicator light (for example, an LED or the like) 26 for displaying the state of the main body device 10. The indicator lamp 26 can display states such as power supply drive, battery drive, operation, charging, and abnormality. Although not shown, a display panel capable of touch operation may be provided. The required setting operation may be performed via the display panel.

図2は第1実施形態の音声読み上げシステム100の構成の一例を示すブロック図である。撮像装置50は、前述の撮像部51、距離センサ52の他に、補正部53、メモリ54、プロセッサ55、及び通信部56を備える。プロセッサ55は、撮像装置50全体を制御することができる。メモリ54は、半導体メモリ等で構成され、撮像部51で撮像して得られた画像データを記憶することができる。 FIG. 2 is a block diagram showing an example of the configuration of the voice reading system 100 of the first embodiment. The image pickup apparatus 50 includes a correction section 53, a memory 54, a processor 55, and a communication section 56 in addition to the image pickup section 51 and the distance sensor 52 described above. The processor 55 can control the entire image pickup apparatus 50. The memory 54 is composed of a semiconductor memory or the like, and can store image data obtained by imaging with the image pickup unit 51.

通信部56は、無線LANなどの宅内ネットワーク1を介して、本体装置10との間の通信機能を実現する。撮像装置50(例えば、プロセッサ55)は、通信部56を介して、撮像部51で撮像して得られた画像データ(メモリ54に一旦記憶した画像データも含む)を本体装置10へ送信することができる。 The communication unit 56 realizes a communication function with the main body device 10 via a home network 1 such as a wireless LAN. The image pickup device 50 (for example, the processor 55) transmits the image data (including the image data temporarily stored in the memory 54) obtained by the image pickup by the image pickup unit 51 to the main body device 10 via the communication unit 56. Can be done.

補正部53は、距離センサ52で検出した距離に応じて窓部61を介した視野内の撮像対象が撮像可能となるように撮像部51の撮像範囲を補正することができる。補正部53の詳細は後述する。 The correction unit 53 can correct the imaging range of the imaging unit 51 so that the imaging target in the field of view through the window unit 61 can be imaged according to the distance detected by the distance sensor 52. The details of the correction unit 53 will be described later.

本体装置10は、制御部11、通信部12、解析部13、音声合成部14、順序推定部15、記憶部16、マイク17、スピーカ18、及び感情指標算出部19を備える。解析部13は、文字列解析部131、及び図解析部132を備える。記憶部16は、例えば、半導体メモリで構成され、BGMリスト161、及び音声データリスト162を記憶することができる。制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)などで構成することができる。 The main body device 10 includes a control unit 11, a communication unit 12, an analysis unit 13, a voice synthesis unit 14, an order estimation unit 15, a storage unit 16, a microphone 17, a speaker 18, and an emotion index calculation unit 19. The analysis unit 13 includes a character string analysis unit 131 and a figure analysis unit 132. The storage unit 16 is composed of, for example, a semiconductor memory, and can store the BGM list 161 and the voice data list 162. The control unit 11 can be configured by a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.

通信部12は、宅内ネットワーク1を介して、撮像装置50との間の通信機能を実現する。通信部12は、撮像装置50が送信した画像データを受信することができる。 The communication unit 12 realizes a communication function with the image pickup device 50 via the home network 1. The communication unit 12 can receive the image data transmitted by the image pickup apparatus 50.

解析部13は、通信部12を介して受信した画像データを解析する。具体的には、解析部13は、通信部12を介して受信した画像データに対して画像認識を行って撮像対象が文字列であるか図であるかを解析することができる。画像認識は、例えば、公知の手法を用いることができ、前処理、特徴抽出、照合・分類などの処理を行えばよい。 The analysis unit 13 analyzes the image data received via the communication unit 12. Specifically, the analysis unit 13 can perform image recognition on the image data received via the communication unit 12 and analyze whether the image pickup target is a character string or a figure. For image recognition, for example, a known method can be used, and processing such as preprocessing, feature extraction, collation / classification, and the like may be performed.

文字列解析部131は、画像処理エンジン及び言語処理エンジンを搭載し、画像データを解析して、文字列(テキスト)を出力することができる。画像データから文字列を抽出する処理は、例えば、公知の手法を用いればよい。 The character string analysis unit 131 is equipped with an image processing engine and a language processing engine, and can analyze image data and output a character string (text). For the process of extracting the character string from the image data, for example, a known method may be used.

図解析部132は、画像処理エンジンを搭載し、画像データを解析して、画像に含まれる図(写真を含む)が何を表すものであるかを解析することができる。例えば、撮像対象としては、電車や自動車などの乗物、動物、昆虫、楽器などが含まれるが、これらに限定されるものではない。 The figure analysis unit 132 is equipped with an image processing engine, and can analyze image data to analyze what a figure (including a photograph) included in an image represents. For example, the imaging target includes, but is not limited to, vehicles such as trains and automobiles, animals, insects, musical instruments, and the like.

制御部11は、解析部13の解析結果に基づいて、スピーカ18を介して音声を出力することができる。 The control unit 11 can output voice through the speaker 18 based on the analysis result of the analysis unit 13.

上述の構成により、幼児や子供が、撮像装置50の窓部61で、絵本、図鑑や児童書の中で気になったモノを覗いてボタン63を押すだけで、覗いたモノについて音声で教えてくれるので、幼児や子供は、音声を使った体験をすることができ、モノに対する興味がわくとともに楽しい体験をすることができる。また、単にモノを覗いて遊ぶだけでなく、幼児や子供が疑問に思うもの、あるいは興味があるものを覗くと、音声を使った体験を提供することで、新たな発見へと導くような機能を提供することができ、「知る楽しさ」を提供できる。また、幼児や子供と一緒に家族(例えば、親など)も楽しい体験をすることができる。 With the above configuration, infants and children can use the window 61 of the image pickup device 50 to look into the things they are interested in in picture books, pictorial books, and children's books and press the button 63 to teach them by voice. Infants and children will be able to experience using voice, and they will be interested in things and have a fun experience. In addition to simply looking at things and playing, when a baby or child looks into something that they are wondering or interested in, it provides a voice-based experience that leads to new discoveries. Can be provided, and "fun to know" can be provided. In addition, families (for example, parents) can have a fun experience with infants and children.

次に、出力する音声をどのように準備するかについて、第1~第3の方法について説明する。 Next, the first to third methods will be described with respect to how to prepare the sound to be output.

第1の方法は、予め絵本、図鑑や児童書などに記載されたテキスト(文章)を録音しておき、録音した音声を音声データリスト162として記憶部16に記憶しておく。音声データリスト162は、絵本、図鑑や児童書などの書籍毎に、テキストを示す情報と、当該テキストの音声データとを関連付けておく。文字列解析部131で解析して得られた文字列(テキスト)に対応する音声データをスピーカ18から出力することにより、「音声読み上げ」を行うことができる。録音した音声を再生する場合に、話者の属性を変更できるようにしてもよい。例えば、男性又は女性の声、若者又は年配者の声、アニメの声優の声を好みに応じて設定できるようにしてもよい。このような設定は、タッチ操作が可能な表示パネルを用いてもよい。また、マイク17を使って、親の声を録音し、録音した音声を再生してもよい。 In the first method, a text (sentence) described in a picture book, a picture book, a children's book, or the like is recorded in advance, and the recorded voice is stored in the storage unit 16 as a voice data list 162. In the voice data list 162, the information indicating the text is associated with the voice data of the text for each book such as a picture book, a picture book, or a children's book. By outputting the voice data corresponding to the character string (text) analyzed by the character string analysis unit 131 from the speaker 18, "speech reading" can be performed. When playing back the recorded voice, the attributes of the speaker may be changed. For example, the voices of men or women, the voices of young people or the elderly, and the voices of anime voice actors may be set according to preference. Such a setting may use a display panel capable of touch operation. Alternatively, the microphone 17 may be used to record the voice of the parent and reproduce the recorded voice.

第2及び第3の方法は、音声合成部14により行うことができる。まず、第2の方法は、予め録音された音声の素片を連結して音声を合成する。具体的には、録音された文字(例えば、「あ」、「か」など)、単語や文節を連結して音声を合成することができる。この場合、発話速度や声の高さ、イントネーション(音調、抑揚)などを調整して自然に聞こえる音声に調整することができる。また、コーパスベース音声合成を用いてもよい。コーパスベース音声合成は、テキストの文、フレーズ、アクセント句、形態素、音素、アクセントなどの言語特徴量に基づいて基本周波数や音素継続長などを予測し、予測した基本周波数や音素継続長などに最も合致する音声素片を、予め準備した音声データベースから選んで連結する手法である。 The second and third methods can be performed by the voice synthesis unit 14. First, in the second method, voices are synthesized by concatenating pre-recorded voice elements. Specifically, recorded characters (for example, "a", "ka", etc.), words, and phrases can be concatenated to synthesize speech. In this case, the speech speed, the pitch of the voice, the intonation (tone, intonation), and the like can be adjusted to adjust the voice so that it sounds natural. In addition, corpus-based speech synthesis may be used. Corpus-based speech synthesis predicts the basic frequency and phoneme duration based on language features such as text sentences, phrases, accent phrases, morphology, phonemes, and accents, and is most suitable for the predicted basic frequency and phoneme duration. This is a method of selecting and concatenating matching phoneme pieces from a voice database prepared in advance.

第3の方法は、予め録音された音声の音声特徴量を用いて音声を合成する。具体的には、音声合成部14は、録音された音声から音声特徴量を学習した学習済みモデルを備える。音声合成部14は、学習済みモデルが出力する音声特徴量に基づいて音声波形に変換することができる。音声特徴量は、例えば、メル周波数ケプストラム係数(MFCC)、線スペクトル対(LSP)、基本周波数などを含む。 The third method synthesizes voice using the voice features of the voice recorded in advance. Specifically, the voice synthesis unit 14 includes a trained model in which voice features are learned from the recorded voice. The voice synthesis unit 14 can convert into a voice waveform based on the voice features output by the trained model. The voice feature amount includes, for example, a mel frequency cepstrum coefficient (MFCC), a line spectrum pair (LSP), a fundamental frequency, and the like.

制御部11は、解析部13の解析結果に基づいて、スピーカ18を介してBGM(バックグラウンドミュージック、背景音楽とも称する)を出力することができる。以下、具体的に説明する。 The control unit 11 can output BGM (also referred to as background music or background music) via the speaker 18 based on the analysis result of the analysis unit 13. Hereinafter, a specific description will be given.

感情指標算出部19は、文字列解析部131が抽出した文字列に対して意味解析を行って感情指標を算出することができる。例えば、感情指標算出部19は、文字列から感情を表す単語を抽出し、抽出した単語に基づいて感情指標を算出することができる。感情をポジティブな感情と、ネガティブな感情とに区分し、予め感情を表す単語に対して、ポジティブであるかネガティブであるかを決めておく。さらに、感情を表す単語それぞれに対して、感情の強さを示す値を決めておく。感情指標算出部19は、抽出した単語それぞれが、ポジティブであるかネガティブであるか、感情の強さの値に基づいて、抽出した文字列に対する感情指標を算出することができる。なお、感情指標の算出単位は、例えば、1つの段落、あるいは、複数の段落を纏めた段落群で行ってもよい。 The emotion index calculation unit 19 can calculate the emotion index by performing semantic analysis on the character string extracted by the character string analysis unit 131. For example, the emotion index calculation unit 19 can extract a word expressing emotion from a character string and calculate an emotion index based on the extracted word. Emotions are divided into positive emotions and negative emotions, and it is decided in advance whether the words expressing emotions are positive or negative. Furthermore, for each word expressing emotion, a value indicating the strength of emotion is determined. The emotion index calculation unit 19 can calculate an emotion index for the extracted character string based on whether each of the extracted words is positive or negative, or the value of the emotion intensity. The unit for calculating the emotional index may be, for example, one paragraph or a group of paragraphs in which a plurality of paragraphs are grouped together.

制御部11は、記憶部16に記憶したBGMリスト161を用いて、感情指標算出部19が算出した感情指標に応じたBGMをスピーカ18から出力することができる。 The control unit 11 can output the BGM corresponding to the emotion index calculated by the emotion index calculation unit 19 from the speaker 18 by using the BGM list 161 stored in the storage unit 16.

図3はBGMリスト161の構成の一例を示す模式図である。BGMリスト161は、感情指標と、BGMとの対応関係を定めている。感情指標は、例えば、ポジティブのレベル1~3、及びネガティブのレベル1~3とすることができる。レベルの数値は、大きいほど感情の強さが強いとすることができる。レベル毎に複数のBGMが対応付けられている。例えば、図に示すように、ポジティブのレベル1に対して、BGM1a、BGM1b、BGM1c、BGM1dが対応付けられている。他の感情指標についても同様である。ここで、符号a~dは、絵本などに記載されている物語や文章における異なるシーンを識別するものである。例えば、感情指標がポジティブのレベル1の場合に、シーンが変わるとBGMもシーンに応じて変えることができる。これにより、臨場感を演出することができ、音声を使った体験を一層楽しくするとともに、わくわくする感情を抱かせることができる。 FIG. 3 is a schematic diagram showing an example of the configuration of the BGM list 161. The BGM list 161 defines the correspondence between the emotional index and the BGM. The emotional index can be, for example, positive levels 1 to 3 and negative levels 1 to 3. The higher the level value, the stronger the emotional strength. A plurality of BGMs are associated with each level. For example, as shown in the figure, BGM1a, BGM1b, BGM1c, and BGM1d are associated with positive level 1. The same applies to other emotional indicators. Here, the reference numerals a to d identify different scenes in stories and sentences described in picture books and the like. For example, when the emotion index is positive level 1, when the scene changes, the BGM can also change according to the scene. As a result, it is possible to produce a sense of realism, make the experience using voice more enjoyable, and make the emotions of excitement.

また、制御部11は、解析部13の解析結果に基づいて、スピーカ18を介して音(サウンドとも称する)を出力することができる。具体的には、制御部11は、スピーカ18を介して図解析部132が解析した解析結果(画像に含まれる図(写真を含む)が何を表すものであるかを示す)に関連する音を出力することができる。 Further, the control unit 11 can output a sound (also referred to as a sound) via the speaker 18 based on the analysis result of the analysis unit 13. Specifically, the control unit 11 has a sound related to an analysis result (indicating what the figure (including a photograph) included in the image represents) analyzed by the figure analysis unit 132 via the speaker 18. Can be output.

図4は音(サウンド)の一例を示す説明図である。図に示すように、撮像対象(画像に含まれる図)は、例えば、電車、自動車、動物、虫、楽器などとすることができる。図が電車の場合には、電車の走行音が出力される。図が動物の場合には、動物の鳴き声が出力される。図が楽器の場合には、楽器の音が出力される。これにより、幼児や子供が、図鑑などを開いて、興味のある図を窓部61で覗き込むことにより、目で見た図に関連する音が再生される。幼児や子供は、疑問や興味を持ったモノを覗き込むことにより、そのモノがどのような音を発するものかを知ることができ、幼児や子供を新たな発見へと導くことができる。 FIG. 4 is an explanatory diagram showing an example of sound. As shown in the figure, the image pickup target (the figure included in the image) can be, for example, a train, a car, an animal, an insect, a musical instrument, or the like. When the figure is a train, the running sound of the train is output. If the figure is an animal, the animal's bark is output. If the figure is a musical instrument, the sound of the musical instrument is output. As a result, an infant or a child opens a picture book or the like and looks into the picture of interest through the window portion 61, so that a sound related to the picture seen by the eyes is reproduced. By looking into an object that has doubts or interests, infants and children can know what kind of sound the object makes, and can lead infants and children to new discoveries.

順序推定部15は、文字列解析部131が抽出した文字列の配列(レイアウトなど)に基づいて文字列の読み上げ順序を推定することができる。例えば、文書のレイアウトが縦書きの場合、文字列の読み上げ順序を上から下へとし、文書のレイアウトが横書きの場合、文字列の読み上げ順序を左から右へとすることができる。これにより、対象物が縦書きでも横書きでも音声を読み上げることができる。 The order estimation unit 15 can estimate the reading order of the character strings based on the array of character strings (layout, etc.) extracted by the character string analysis unit 131. For example, if the layout of the document is vertical writing, the reading order of the character strings may be from top to bottom, and if the layout of the document is horizontal writing, the reading order of the character strings may be from left to right. As a result, the voice can be read aloud regardless of whether the object is written vertically or horizontally.

次に、補正部53について説明する。 Next, the correction unit 53 will be described.

図5は補正部53による撮像範囲の補正方法の一例を示す模式図である。補正部53は、窓部61と絵本などの対象物との間の距離に応じて、窓部61の枠内で視認できる範囲(視野内)の撮像対象が撮像可能となるように撮像範囲を補正することができる。図に示すように、絵本の表面に対する窓部61の位置がP1の場合に、窓部61を覗いて見える範囲をS1とする。なお、撮像範囲S1は矩形状をなすのに対して、窓部61は円形であるので、正確には、視野は円形となるが、便宜上、当該円形が内接円となるような矩形を撮像範囲S1としている。窓部61を絵本から少し遠ざけて位置P2において絵本の表面を覗くと、窓部61と絵本との間の距離が長くなり、窓部61を覗いて見える範囲は大きくなるので、撮像範囲S2は、撮像範囲S1よりも大きくなるように補正される。 FIG. 5 is a schematic diagram showing an example of a method of correcting an imaging range by the correction unit 53. The correction unit 53 sets the image pickup range so that the image pickup target within the visible range (in the field of view) within the frame of the window unit 61 can be imaged according to the distance between the window unit 61 and the object such as a picture book. It can be corrected. As shown in the figure, when the position of the window portion 61 with respect to the surface of the picture book is P1, the range that can be seen through the window portion 61 is defined as S1. The imaging range S1 has a rectangular shape, whereas the window portion 61 has a circular shape. Therefore, the field of view is circular to be exact, but for convenience, a rectangular shape is captured in which the circular shape is an inscribed circle. The range is S1. When the window portion 61 is slightly away from the picture book and the surface of the picture book is looked at at the position P2, the distance between the window portion 61 and the picture book becomes long, and the range that can be seen through the window portion 61 becomes large. , It is corrected so as to be larger than the imaging range S1.

次に、音声読み上げシステム100の動作について説明する。 Next, the operation of the voice reading system 100 will be described.

図6は第1実施形態の音声読み上げシステム100の処理手順の一例を示すフローチャートである。撮像装置50は、シャッターボタン操作を受け付け(S11)、対象物までの距離を検出し(S12)、撮像対象を撮像し(S13)、対象物との距離に応じて撮像した画像データを補正する(S14)。撮像装置50は、撮像して得られた画像データを本体装置10へ送信し(S15)、処理を終了する。なお、画像データを補正することなく後の解析範囲とともに撮像データを送信する構成としてもよい。 FIG. 6 is a flowchart showing an example of the processing procedure of the voice reading system 100 of the first embodiment. The image pickup apparatus 50 receives a shutter button operation (S11), detects the distance to the object (S12), images the image pickup target (S13), and corrects the image data captured according to the distance to the object. (S14). The image pickup apparatus 50 transmits the image data obtained by imaging to the main body apparatus 10 (S15), and ends the process. In addition, the image data may be transmitted together with the later analysis range without correcting the image data.

本体装置10は、画像データを受信し(S16)、撮像対象が文字列であるか否かを判定する(S17)。撮像対象が文字列である場合(S17でYES)、本体装置10は、文字列を読み上げる(S18)。本体装置10は、文字列に基づいて感情指標を算出し(S19)、感情指標に応じたBGMを出力する(S20)。 The main unit device 10 receives the image data (S16) and determines whether or not the image pickup target is a character string (S17). When the image pickup target is a character string (YES in S17), the main unit 10 reads out the character string (S18). The main unit device 10 calculates an emotional index based on the character string (S19), and outputs BGM according to the emotional index (S20).

本体装置10は、文字列に基づいてシーンが変わったか否かを判定し(S21)、シーンが変わった場合(S21でYES)、BGMを変更して出力し(S22)、処理を終了する。シーンが変わっていない場合(S21でNO)、本体装置10は、処理を終了する。 The main unit 10 determines whether or not the scene has changed based on the character string (S21), and if the scene has changed (YES in S21), changes the BGM and outputs it (S22), and ends the process. If the scene has not changed (NO in S21), the main unit 10 ends the process.

ステップS17において、撮像対象が文字列でない場合(S17でNO)、本体装置10は、撮像対象が図であるか否かを判定する(S23)。撮像対象が図である場合(S23でYES)、本体装置10は、図4に例示したように、撮像対象である図の内容に関連する音を出力し(S24)、処理を終了する。撮像対象が図でない場合(S23でNO)、本体装置10は、処理を終了する。 In step S17, when the image pickup target is not a character string (NO in S17), the main body apparatus 10 determines whether or not the image pickup target is a figure (S23). When the image pickup target is a figure (YES in S23), the main body apparatus 10 outputs a sound related to the content of the figure to be an image pickup target (S24) as illustrated in FIG. 4, and ends the process. When the image pickup target is not a figure (NO in S23), the main unit 10 ends the process.

(第2実施形態)
第1実施形態では、音声読み上げシステム100は、撮像装置50及び本体装置10を備える構成であったが、第2実施形態では、本体装置10の機能を撮像装置50に組み込んで音声読み上げ装置としている。
(Second Embodiment)
In the first embodiment, the voice reading system 100 is configured to include the image pickup device 50 and the main body device 10, but in the second embodiment, the function of the main body device 10 is incorporated into the image pickup device 50 to form a voice reading device. ..

図7は音声読み上げ装置200の構成の一例を示すブロック図である。なお、音声読み上げ装置200の外観形状は、第1実施形態の撮像装置50と同様であり、把持部、シャッターボタン及び窓部を備えている。音声読み上げ装置200は、制御部201、撮像部202、距離センサ203、補正部204、文字列解析部206及び図解析部207を有する解析部205、音声合成部208、順序推定部209、BGMリスト211及び音声データリスト212を記憶する記憶部210、マイク213、スピーカ214、及び感情指標算出部215を備える。制御部201、撮像部202、距離センサ203、補正部204、文字列解析部206及び図解析部207を有する解析部205、音声合成部208、順序推定部209、BGMリスト211及び音声データリスト212を記憶する記憶部210、マイク213、スピーカ214、及び感情指標算出部215の各機能は第1実施形態の場合と同様であるので説明は省略する。 FIG. 7 is a block diagram showing an example of the configuration of the voice reading device 200. The appearance of the voice reading device 200 is the same as that of the image pickup device 50 of the first embodiment, and includes a grip portion, a shutter button, and a window portion. The voice reading device 200 includes a control unit 201, an imaging unit 202, a distance sensor 203, a correction unit 204, an analysis unit 205 having a character string analysis unit 206 and a figure analysis unit 207, a voice synthesis unit 208, an order estimation unit 209, and a BGM list. It includes a storage unit 210 for storing the 211 and the voice data list 212, a microphone 213, a speaker 214, and an emotion index calculation unit 215. Control unit 201, imaging unit 202, distance sensor 203, correction unit 204, analysis unit 205 having character string analysis unit 206 and figure analysis unit 207, voice synthesis unit 208, order estimation unit 209, BGM list 211 and voice data list 212. Since each function of the storage unit 210, the microphone 213, the speaker 214, and the emotion index calculation unit 215 for storing the above is the same as in the case of the first embodiment, the description thereof will be omitted.

(第3実施形態)
第3実施形態は、第1実施形態の場合と同様に撮像装置50、本体装置30を備え、さらにサーバ300を備え、第1実施形態の本体装置10の主な機能をサーバ300に組み込んだ構成である。
(Third Embodiment)
The third embodiment includes an image pickup device 50 and a main body device 30 as in the case of the first embodiment, further includes a server 300, and incorporates the main functions of the main body device 10 of the first embodiment into the server 300. Is.

図8は第3実施形態の音声読み上げシステムの構成の一例を示すブロック図である。撮像装置50は、第1実施形態の撮像装置50と同一の構成である。本体装置30は、制御部36、第1通信部31、第2通信部32、BGMリスト331を記憶する記憶部33、マイク34、スピーカ35を備える。 FIG. 8 is a block diagram showing an example of the configuration of the voice reading system of the third embodiment. The image pickup device 50 has the same configuration as the image pickup device 50 of the first embodiment. The main body device 30 includes a control unit 36, a first communication unit 31, a second communication unit 32, a storage unit 33 for storing the BGM list 331, a microphone 34, and a speaker 35.

第1通信部31は、宅内ネットワーク1を介して、撮像装置50との間の通信機能を実現する。 The first communication unit 31 realizes a communication function with the image pickup device 50 via the home network 1.

第2通信部32は、インターネットなどの通信ネットワーク2を介して、サーバ300との間の通信機能を実現する。BGMリスト331、マイク34、スピーカ35は第1実施の形態の場合と同様であるので説明は省略する。 The second communication unit 32 realizes a communication function with the server 300 via a communication network 2 such as the Internet. Since the BGM list 331, the microphone 34, and the speaker 35 are the same as those in the first embodiment, the description thereof will be omitted.

サーバ300は、制御部301、通信部302、文字列解析部304及び図解析部305を有する解析部303、音声合成部306、順序推定部307、音声データリスト309を記憶する記憶部308、及び感情指標算出部310を備える。 The server 300 includes a control unit 301, a communication unit 302, an analysis unit 303 having a character string analysis unit 304 and a figure analysis unit 305, a voice synthesis unit 306, an order estimation unit 307, a storage unit 308 for storing a voice data list 309, and a storage unit 308. The emotion index calculation unit 310 is provided.

通信部302は、の通信ネットワーク2を介して、本体装置30との間の通信機能を実現する。制御部301、解析部303、文字列解析部304、図解析部305、音声合成部306、順序推定部307、音声データリスト309、及び感情指標算出部310の各機能は第1実施形態の場合と同様であるので説明を省略する。 The communication unit 302 realizes a communication function with the main body device 30 via the communication network 2. Each function of the control unit 301, the analysis unit 303, the character string analysis unit 304, the figure analysis unit 305, the voice synthesis unit 306, the order estimation unit 307, the voice data list 309, and the emotion index calculation unit 310 is the case of the first embodiment. Since it is the same as the above, the description thereof will be omitted.

図9は第3実施形態の音声読み上げシステムの処理手順の一例を示すフローチャートである。撮像装置50の処理は第1実施形態の場合と同様であるので省略する。本体装置30は、撮像装置50が送信した画像データを受信し(S31)、受信した画像データをサーバ300へ送信する(S32)。 FIG. 9 is a flowchart showing an example of the processing procedure of the voice reading system of the third embodiment. Since the processing of the image pickup apparatus 50 is the same as that of the first embodiment, it will be omitted. The main body device 30 receives the image data transmitted by the image pickup device 50 (S31), and transmits the received image data to the server 300 (S32).

サーバ300は、画像データを受信し(S33)、撮像対象が文字列であるか否かを判定する(S34)。撮像対象が文字列である場合(S34でYES)、サーバ300は、文字列を音声データに変換し、変換した音声データを本体装置30へ送信する(S35)。本体装置30は、音声を出力する(S36)。これにより文字列を読み上げることができる。 The server 300 receives the image data (S33) and determines whether or not the image pickup target is a character string (S34). When the image pickup target is a character string (YES in S34), the server 300 converts the character string into voice data and transmits the converted voice data to the main unit 30 (S35). The main unit 30 outputs audio (S36). This makes it possible to read out the character string.

サーバ300は、文字列に基づいて感情指標を算出し(S37)、算出した感情指標を本体装置30へ送信する(S38)。本体装置30は、感情指標を受信し(S39)、受信した感情指標に応じたBGMを出力する(S40)。 The server 300 calculates an emotion index based on the character string (S37), and transmits the calculated emotion index to the main unit device 30 (S38). The main body device 30 receives the emotion index (S39) and outputs the BGM corresponding to the received emotion index (S40).

サーバ300は、文字列に基づいてシーンが変わったか否かを判定し(S41)、シーンが変わった場合(S41でYES)、本体装置30に対してシーンの変更を通知する(S42)。本体装置30は、BGMを変更して出力する(S43)。シーンが変わっていない場合(S41でNO)、サーバ300は、処理を終了する。 The server 300 determines whether or not the scene has changed based on the character string (S41), and if the scene has changed (YES in S41), notifies the main unit 30 of the change in the scene (S42). The main unit 30 changes the BGM and outputs it (S43). If the scene has not changed (NO in S41), the server 300 ends the process.

ステップS34において、撮像対象が文字列でない場合(S34でNO)、サーバ300は、撮像対象が図であるか否かを判定する(S44)。撮像対象が図である場合(S44でYES)、サーバ300は、図の内容に関する音データを本体装置30へ送信し(S45)、処理を終了する。本体装置30は、音データを受信し、受信した音データに基づいて音を出力し(S46)、処理を終了する。撮像対象が図でない場合(S44でNO)、サーバ300は、処理を終了する。 In step S34, when the image pickup target is not a character string (NO in S34), the server 300 determines whether or not the image pickup target is a figure (S44). When the image pickup target is a figure (YES in S44), the server 300 transmits sound data related to the contents of the figure to the main body device 30 (S45), and ends the process. The main unit device 30 receives the sound data, outputs the sound based on the received sound data (S46), and ends the process. When the image pickup target is not a figure (NO in S44), the server 300 ends the process.

本実施の形態の音声読み上げシステム及び音声読み上げ装置は、幼児や子供に対しては、家の中でのおうち遊び、保育園や幼稚園等の施設での遊び、一時預かり所(例えば、ショッピングモール、スーパー、美容室など)等での遊びに利用することができる。また、ユーザは幼児や子供に限定されるものではなく、老人、外国人、ハンディを持った人が本実施の形態の音声読み上げシステム及び音声読み上げ装置を利用してもよい。 The voice reading system and the voice reading device of the present embodiment are for infants and children to play at home, play in facilities such as nursery schools and kindergartens, and temporary storage (for example, shopping malls and supermarkets). , Beauty salon, etc.) can be used for play. Further, the user is not limited to infants and children, and elderly people, foreigners, and persons with handicap may use the voice reading system and voice reading device of the present embodiment.

本実施の形態の音声読み上げシステムの撮像装置、本体装置及び音声読み上げ装置は、玩具として販売又はレンタルによって利用者に提供することができる。また、サーバの機能をクラウド上で提供し対価としての利用料を得ることもできる。 The image pickup device, the main body device, and the voice reading device of the voice reading system of the present embodiment can be provided to the user by sale or rental as toys. It is also possible to provide the server function on the cloud and obtain a usage fee as a consideration.

(第4実施形態)
第4実施形態では、前述の音声読み上げシステム100と同様の機能を用いて、親などの保護者が、幼児などの子供の興味関心(特に最新の興味関心や、成長又は環境変化などによる興味関心の移り変わりなど)を把握することができる情報処理装置システム、情報処理装置、撮像装置などについて説明する。
(Fourth Embodiment)
In the fourth embodiment, the same function as the above-mentioned voice reading system 100 is used to allow a guardian such as a parent to have an interest in a child such as an infant (particularly the latest interest or interest due to growth or environmental change). Information processing device systems, information processing devices, image pickup devices, etc. that can grasp the transition of information processing devices, etc. will be described.

近年、共働きの家庭が増加し、子供を保育園等に預けることが増えたため、保護者は、子供の日中の行動を観察することが困難になっており、子供が何に興味や関心を持ち始めたか、あるいは持っているかを把握しづらくなっている。保護者は日々少しずつ生じる子供の成長や変化を適切に捉えられていない。 In recent years, the number of double-income families has increased, and the number of children entrusted to nursery centers has increased, making it difficult for parents to observe their children's daytime behavior, and what interests and interests their children have. It's hard to tell if you've started or have one. Parents do not properly capture the child's growth and changes that occur little by little every day.

また、幼児教育での知的好奇心を伸ばすアプローチでは、多くの子供に適合させるために画一的なアプローチや大雑把なアプローチが多く、個人個人の知的好奇心や興味関心、嗜好の変遷などが考慮されていない。以下の実施形態では、これらの課題を解決すべく、リアルタイムな興味関心・嗜好の状態や、子供の成長や環境変化なども考慮して、個人個人に即した興味関心を伸ばす支援について説明する。 In addition, in the approach to develop intellectual curiosity in early childhood education, there are many uniform approaches and rough approaches to adapt to many children, such as individual intellectual curiosity, interests, and changes in taste. Is not taken into account. In the following embodiments, in order to solve these problems, support for developing interests and interests suitable for each individual will be described in consideration of real-time interest / preference states, child growth, environmental changes, and the like.

図10は第4実施形態の情報処理システムの構成の一例を示す図である。情報処理システムは、撮像装置50、端末装置100、及び情報処理装置としてのサーバ400を備える。撮像装置50は、第1実施形態の場合と同様の構成を備えるが、スピーカ57を撮像装置50内に組み込んである点で相違する。撮像装置50は、朗読モード、又は効果音再生モードで撮像対象を撮像することができる。朗読モード、又は効果音再生モードは、スイッチやボタン等によって手動で切り替えてもよく、あるいは、サーバ400の解析部403による解析結果によって自動で切り替えてもよい。撮像装置50は、幼児や子供が手に持って遊ぶ虫めがねのようなデバイスであり、端末装置100は、保護者が携帯する端末である。 FIG. 10 is a diagram showing an example of the configuration of the information processing system of the fourth embodiment. The information processing system includes an image pickup device 50, a terminal device 100, and a server 400 as an information processing device. The image pickup apparatus 50 has the same configuration as that of the first embodiment, except that the speaker 57 is incorporated in the image pickup apparatus 50. The image pickup device 50 can take an image of an image pickup target in the reading mode or the sound effect reproduction mode. The reading mode or the sound effect reproduction mode may be manually switched by a switch, a button, or the like, or may be automatically switched according to the analysis result by the analysis unit 403 of the server 400. The image pickup device 50 is a device like a magnifying glass that infants and children hold in their hands and play, and the terminal device 100 is a terminal carried by a guardian.

端末装置100は、第3実施形態の本体装置30と同様の構成を備えるが、表示部104、操作部105を備える点で相違する。制御部101、第1通信部102、第2通信部103、及び記憶部106は、第3実施形態の本体装置30の制御部36、第1通信部31、第2通信部32、及び記憶部33と同様である。端末装置100は、例えば、スマートフォン、タブレット端末等で構成することができる。表示部104は、液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイで構成することができる。操作部105は、タッチパネル等で構成され、表示部104上で文字の入力操作、表示部104に表示されたアイコン、画像又は文字等に対する操作を行うようにしてもよい。 The terminal device 100 has the same configuration as the main body device 30 of the third embodiment, but is different in that it includes a display unit 104 and an operation unit 105. The control unit 101, the first communication unit 102, the second communication unit 103, and the storage unit 106 are the control unit 36, the first communication unit 31, the second communication unit 32, and the storage unit of the main unit 30 of the third embodiment. It is the same as 33. The terminal device 100 can be configured by, for example, a smartphone, a tablet terminal, or the like. The display unit 104 can be configured as a liquid crystal display or an organic EL (Electro Luminescence) display. The operation unit 105 may be composed of a touch panel or the like, and may perform a character input operation on the display unit 104 and an operation for an icon, an image, a character, or the like displayed on the display unit 104.

サーバ400は、サーバ400全体を制御する制御部401、通信部402、解析部403、順序推定部406、音声合成部407、音再生部408、分析部409、及び記憶部410を備える。解析部403は、文字列解析部404、及び図解析部405を備える。記憶部410は、音声データリスト411を記憶している。制御部401、通信部402、解析部403、文字列解析部404、図解析部405、順序推定部406、音声合成部407、及び記憶部410は、第3実施形態のサーバ300の制御部301、通信部302、解析部303、文字列解析部304、図解析部305、順序推定部307、音声合成部306、及び記憶部308と同様である。解析部403の解析結果が、撮像対象が図であるか文字列であるかに応じて、効果音再生モードか、あるいは朗読モードかを自動で切り替えてもよい。また、音再生部408は、制御部11、301などの音再生機能と同様である。分析部409の詳細は後述する。 The server 400 includes a control unit 401, a communication unit 402, an analysis unit 403, an order estimation unit 406, a voice synthesis unit 407, a sound reproduction unit 408, an analysis unit 409, and a storage unit 410 that control the entire server 400. The analysis unit 403 includes a character string analysis unit 404 and a figure analysis unit 405. The storage unit 410 stores the voice data list 411. The control unit 401, the communication unit 402, the analysis unit 403, the character string analysis unit 404, the figure analysis unit 405, the order estimation unit 406, the voice synthesis unit 407, and the storage unit 410 are the control unit 301 of the server 300 of the third embodiment. , Communication unit 302, analysis unit 303, character string analysis unit 304, figure analysis unit 305, order estimation unit 307, voice synthesis unit 306, and storage unit 308. Depending on whether the analysis result of the analysis unit 403 is a figure or a character string, the sound effect reproduction mode or the reading mode may be automatically switched. Further, the sound reproduction unit 408 is the same as the sound reproduction function of the control units 11, 301 and the like. The details of the analysis unit 409 will be described later.

図11は第4実施形態の情報処理システムの処理手順の一例を示す図である。撮像装置50は、撮像対象を撮像し(S101)、撮像して得られた画像データを端末装置100へ送信する(S102)。端末装置100は、画像データを受信し(S103)、受信した画像データをサーバ400へ送信する(S104)。 FIG. 11 is a diagram showing an example of a processing procedure of the information processing system of the fourth embodiment. The image pickup apparatus 50 images an image pickup target (S101), and transmits the image data obtained by the image pickup to the terminal device 100 (S102). The terminal device 100 receives the image data (S103) and transmits the received image data to the server 400 (S104).

サーバ400は、画像データを受信し(S105)、受信した画像データに基づいて撮像対象を解析する(S106)。サーバ400は、撮像対象が図であるか文字列であるかに応じて、図の内容に関連する音又は文字列を読み上げる音声を生成する(S107)。図の内容に関連する音及び文字列を読み上げる音声を纏めて「音声」と称してもよい。 The server 400 receives the image data (S105) and analyzes the image pickup target based on the received image data (S106). The server 400 generates a sound or a voice that reads out a character string related to the content of the figure, depending on whether the image pickup target is a figure or a character string (S107). The sounds related to the contents of the figure and the voices that read out the character strings may be collectively referred to as "voices".

サーバ400は、生成した音又は音声を端末装置100へ送信する(S108)。端末装置100は、音又は音声を受信し(S109)、受信した音又は音声を撮像装置50へ送信する(S110)。撮像装置50は、音又は音声を受信し(S111)、受信した音又は音声を出力する(S112)。 The server 400 transmits the generated sound or voice to the terminal device 100 (S108). The terminal device 100 receives the sound or voice (S109), and transmits the received sound or voice to the image pickup device 50 (S110). The image pickup apparatus 50 receives sound or sound (S111) and outputs the received sound or sound (S112).

サーバ400は、受信した画像データ、解析結果を記憶部410に記録し(S113)、音の再生又は音声の読み上げ回数を更新する(S114)。幼児や子供などのユーザが、撮像装置50を持って撮像対象を撮像する都度、図11に示す処理が繰り返され、画像データ、解析結果、音の再生又は音声の読み上げ回数などの情報を収集することができる。 The server 400 records the received image data and the analysis result in the storage unit 410 (S113), and updates the number of times of sound reproduction or voice reading (S114). Each time a user such as an infant or a child holds an image pickup device 50 and images an image pickup target, the process shown in FIG. 11 is repeated to collect information such as image data, analysis results, sound reproduction, or voice reading frequency. be able to.

制御部401は、収集部としての機能を有し、通信部402を介して、撮像対象を撮像して得られた画像データを収集する。分析部409は、収集した画像データに基づいて、撮像対象を撮像したユーザ(幼児や子供)の興味関心を分析する。制御部401は、提供部としての機能を有し、分析部409の分析結果を提供することができる。 The control unit 401 has a function as a collection unit, and collects image data obtained by imaging an image pickup target via the communication unit 402. The analysis unit 409 analyzes the interests of the user (infant or child) who has taken an image of the image pickup target based on the collected image data. The control unit 401 has a function as a providing unit and can provide the analysis result of the analysis unit 409.

このように、幼児や子供が興味や関心を持って撮像した撮像対象の画像データをライフログの一つとして収集し、収集したライフログに基づいて、幼児や子供の日々の興味関心を分析し、分析結果を保護者にフィードバックすることにより、保護者は、幼児や子供の興味関心に即したフォローや後押しが可能となる。例えば、保護者は、子供が興味や関心を示す分野に関連するグッズを買い与えることや、子供が興味や関心を示す場所や施設などに連れて行くことができる。 In this way, the image data of the image to be imaged taken by the infant or child with interest is collected as one of the life logs, and the daily interests of the infant or child are analyzed based on the collected life log. By feeding back the analysis results to the parents, the parents can follow and support according to the interests of infants and children. For example, parents can buy goods related to areas where their children are interested or interested, or take them to places or facilities where their children are interested or interested.

次に、分析部409による分析処理の詳細について説明する。分析部409は、(1)興味関心分析機能、(2)興味関心タイプ分析機能、(3)活動タイプ分析機能、及び(4)好きな色分析機能などの各機能を備える。分析対象となるライフログは、撮像装置50で撮像されて収集された画像データ、及び朗読モードと効果音再生モードそれぞれの使用回数とすることができる。以下、各分析機能について説明する。 Next, the details of the analysis process by the analysis unit 409 will be described. The analysis unit 409 has each function such as (1) interest-interest analysis function, (2) interest-interest type analysis function, (3) activity type analysis function, and (4) favorite color analysis function. The life log to be analyzed can be the image data captured and collected by the image pickup device 50, and the number of times of use for each of the reading mode and the sound effect reproduction mode. Hereinafter, each analysis function will be described.

図12は興味関心分析機能の処理手順の一例を示す図である。以下では、便宜上、処理の主体を制御部401として説明する。制御部401は、画像データを収集し(S121)、第1所定期間に亘って収集したか否かを判定する(S122)。第1所定期間は、例えば、1週間とすることができるが、これに限定されない。第1所定期間に亘って収集していない場合(S122でNO)、制御部401は、ステップS121の処理を続ける。 FIG. 12 is a diagram showing an example of a processing procedure of the interest analysis function. Hereinafter, for convenience, the subject of processing will be described as the control unit 401. The control unit 401 collects image data (S121) and determines whether or not the image data has been collected over the first predetermined period (S122). The first predetermined period can be, for example, one week, but is not limited to this. If the collection has not been performed for the first predetermined period (NO in S122), the control unit 401 continues the process of step S121.

第1所定期間に亘って収集した場合(S122でYES)、制御部401は、撮像対象を分野別に分類する(S123)。具体的には、分析部409が撮像対象を分野別に分類する。分析部409は、物体検出のための学習モデルを備えてもよい。学習モデルは、例えば、HOG(Histogram of Oriented Gradients)、R-CNN(Region-based CNN)、Fast R-CNN、RPN(Region Proposal Network)、YOLO(You Only Look Once)、SSD(Single Shot Detector)、Transformerなどを含む。分析部409によって検出された物体(オブジェクト)を分野(カテゴリ)毎に分類すればよい。分野としては、例えば、電車、くるま、飛行機、花、動物、食べ物、楽器、魚、昆虫、人形など適宜決定することができる。 When the collection is performed over the first predetermined period (YES in S122), the control unit 401 classifies the imaging target by field (S123). Specifically, the analysis unit 409 classifies the imaging target by field. The analysis unit 409 may include a learning model for object detection. The learning model is, for example, HOG (Histogram of Oriented Gradients), R-CNN (Region-based CNN), Fast R-CNN, RPN (Region Proposal Network), YOLO (You Only Look Once), SSD (Single Shot Detector). , Transformer, etc. are included. Objects (objects) detected by the analysis unit 409 may be classified by field (category). The field can be appropriately determined, for example, a train, a car, an airplane, a flower, an animal, a food, a musical instrument, a fish, an insect, a doll, or the like.

制御部401は、分野毎に撮像対象の合計数を算出する(S124)。例えば、1週間の間に子供が「電車」に分類されるオブジェクトを20個撮像したとすると、「電車」の件数を20件とする。制御部401は、撮像数の多いものを「興味あり」の分野として登録する(S125)。例えば、分野毎に撮像数を算出し、撮像数の多い順に上位5個の分野を「興味あり」の分野として登録する。なお、「興味あり」の分野の数は5個に限定されない。 The control unit 401 calculates the total number of imaging targets for each field (S124). For example, if a child images 20 objects classified as "trains" in one week, the number of "trains" is 20. The control unit 401 registers a large number of images as an "interesting" field (S125). For example, the number of images taken is calculated for each field, and the top five fields are registered as "interested" fields in descending order of the number of images taken. The number of "interested" fields is not limited to five.

制御部401は、直近の第1所定期間(例えば、先週)における分野毎の撮像数と比較して、今回の第1所定期間(例えば、今週)における分野毎の撮像数が増加傾向にある分野を「急上昇」として登録する(S126)。例えば、先週と今週の分野毎の撮像数の差分を算出し、算出した差分が所定の差分閾値以上である分野を「急上昇」の分野として登録することができる。あるいは、算出した差分が最も大きい分野を「急上昇」の分野として登録してもよい。 The control unit 401 has a field in which the number of images taken in each field in the first predetermined period (for example, this week) is increasing as compared with the number of images taken in each field in the latest first predetermined period (for example, last week). Is registered as a "surge" (S126). For example, it is possible to calculate the difference in the number of images taken for each field between last week and this week, and register the field in which the calculated difference is equal to or higher than the predetermined difference threshold value as the field of "rapid rise". Alternatively, the field having the largest calculated difference may be registered as the field of "rapid rise".

制御部401は、分野毎の撮像数のうち、最も出現数の多い分野を「マイブーム」として登録する(S127)。例えば、1週間で撮像されたオブジェトの数が最も多い分野を「マイブーム」とすることができる。 The control unit 401 registers the field with the largest number of appearances as "my boom" among the number of images taken for each field (S127). For example, the field in which the number of objects imaged in one week is the largest can be referred to as "my boom".

制御部401は、分析結果(「興味あり」、「急上昇」、「マイブーム」)を端末装置100へ送信し、端末装置100は、分析結果を表示する。これにより、制御部401は、分析結果を提供し(S128)、処理を終了する。なお、「興味あり」、「急上昇」、及び「マイブーム」の文言は一例であって、これらの文言に限定されるものではない。 The control unit 401 transmits the analysis result (“interested”, “rapid rise”, “my boom”) to the terminal device 100, and the terminal device 100 displays the analysis result. As a result, the control unit 401 provides the analysis result (S128) and ends the process. The words "interested", "surge", and "my boom" are examples, and are not limited to these words.

上述のように、分析部409は、第1解析部としての機能を有し、収集した画像データに基づいて撮像対象の分野を解析することができる。分析部409は、第1所定期間の都度収集した解析結果に基づいて、幼児や子供(ユーザ)の興味関心を分析してもよい。 As described above, the analysis unit 409 has a function as a first analysis unit, and can analyze the field to be imaged based on the collected image data. The analysis unit 409 may analyze the interests of infants and children (users) based on the analysis results collected each time during the first predetermined period.

分析部409は、解析した分野毎に撮像された撮像対象の数に基づいて、ユーザの興味関心に関する「興味あり」(第1指標)を分析してもよい。これにより、保護者は、子供の「興味の持ち始め」を見逃すことなく、適切なフォローや後押しを子供に与えることが可能となる。 The analysis unit 409 may analyze the "interest" (first index) regarding the user's interests based on the number of images to be imaged for each field analyzed. This allows parents to provide their children with appropriate follow-up and support without overlooking the child's "beginning of interest."

分析部409は、第1所定期間毎の、分野毎に撮像された撮像対象の数の変化に基づいてユーザの興味関心に関する「急上昇」(第2指標)を分析してもよい。また、分析部409は、分野毎に撮像された撮像対象の数のうち、撮像対象の数が最多の分野に基づいてユーザの興味関心に関する「マイブーム」(第3指標)を分析してもよい。 The analysis unit 409 may analyze the "rapid rise" (second index) regarding the user's interests based on the change in the number of images to be imaged for each field in the first predetermined period. Further, even if the analysis unit 409 analyzes "my boom" (third index) regarding the user's interests based on the field having the largest number of image pickup targets among the number of image pickup targets imaged for each field. good.

図13は興味関心分析機能の分析結果の一例を示す図である。図13に示す「OOちゃんの興味関心分析結果」画面501は、端末装置100の表示部104に表示することができる。「OOちゃんの興味関心分析結果」画面501は、例えば、「日付が正しくありません。」などのエラーメッセージを表示するメッセージ表示エリア502、今週の1週間に撮影した対象物の分野別の比率を表示する表示エリア503、「興味あり」の分野を表示する表示エリア505、「マイブーム」の分野を表示する表示エリア506、「急上昇」の分野を表示する表示エリア507を有する。また、全てのログを見るための「全部のログを見る」アイコン504が表示されている。 FIG. 13 is a diagram showing an example of the analysis result of the interest analysis function. The “OO-chan's interest analysis result” screen 501 shown in FIG. 13 can be displayed on the display unit 104 of the terminal device 100. The "OO-chan's interest analysis result" screen 501 displays, for example, a message display area 502 that displays an error message such as "The date is incorrect." It has a display area 503, a display area 505 that displays the field of "interesting", a display area 506 that displays the field of "my boom", and a display area 507 that displays the field of "rapid rise". In addition, the "view all logs" icon 504 for viewing all logs is displayed.

図13の例では、「興味あり」の分野として、「電車」、「花」、「くるま」、「食べ物」、「動物」が表示され、それぞれの分野における撮影数として、20件、18件、15件、10件、9件という数値が表示されている。「マイブーム」では、撮影数が最も多い「電車」の分野の中から、例えば、撮影数が最も多いオブジェクト(図13の例では、「新幹線」の画像)を表示するとともに、「いまのマイブームは新幹線!」の如く文言を表示する。これにより、保護者は、子供のリアルタイムな興味関心、嗜好の状態を容易に把握できる。「急上昇」では、『「食べ物」に最近興味がでてきたようです』の如く文言を表示する。これにより、保護者は、興味関心の変化や、嗜好の変化を適切に捉えることができ、子供との日々のコミュニケーションや生活(購買活動など)に役立てることができる。 In the example of FIG. 13, "train", "flower", "car", "food", and "animal" are displayed as "interested" fields, and 20 and 18 shots are taken in each field. , 15, 10 and 9 are displayed. In "My Boom", for example, from the field of "Train" with the largest number of shots, the object with the highest number of shots (in the example of FIG. 13, the image of "Shinkansen") is displayed, and "Current My" is displayed. The wording is displayed like "Boom is the Shinkansen!" As a result, the guardian can easily grasp the real-time interests and preferences of the child. In "rapid rise", the wording such as "It seems that you have recently become interested in" food "" is displayed. As a result, parents can appropriately grasp changes in interests and tastes, which can be useful for daily communication and life (purchasing activities, etc.) with children.

図14は興味関心タイプ分析機能の処理手順の一例を示す図である。制御部401は、直近の第1所定期間(例えば、先週)における「興味あり」のランキングと、今回の第1所定期間(例えば、今週)における「興味あり」のランキングとを比較し(S131)、上位のランキングに変化があるか否かを判定する(S132)。例えば、図13に例示したように、「興味あり」のランキングを1位から5位まで表示している場合、上位のランキングは、1位及び2位のランキングとすることができるが、これに限定されるものではない。先週の上位2位までのランキングを、例えば、1位が「動物」、2位が「花」とし、今週の上位2位までのランキングを、例えば、1位が「電車」、2位が「花」とすると、先週から今週にかけて、ランキング1位が「動物」から「電車」に変化しているので、この場合、上位ランキングに変化ありと判定できる。 FIG. 14 is a diagram showing an example of a processing procedure of the interest type analysis function. The control unit 401 compares the ranking of "interested" in the most recent first predetermined period (for example, last week) with the ranking of "interested" in the current first predetermined period (for example, this week) (S131). , It is determined whether or not there is a change in the higher ranking (S132). For example, as illustrated in FIG. 13, when the ranking of "interested" is displayed from the 1st to the 5th place, the higher ranking can be the 1st and 2nd place rankings. Not limited. The ranking of the top two last week is, for example, "animal" in the first place and "flower" in the second place, and the ranking of the top two this week is, for example, "train" in the first place and "train" in the second place. In the case of "flower", the first place in the ranking has changed from "animal" to "train" from last week to this week, so in this case, it can be judged that there is a change in the higher ranking.

上位のランキングに変化がある場合(S132でYES)、制御部401は、ユーザの興味関心タイプを「好奇心旺盛」タイプに分類し(S133)、分析結果(興味関心タイプ)を端末装置100に提供し(S134)、処理を終了する。 When there is a change in the higher ranking (YES in S132), the control unit 401 classifies the user's interest type into the "curiosity" type (S133), and transfers the analysis result (interest type) to the terminal device 100. Provided (S134), and the process is terminated.

上位のランキングに変化がない場合(S132でNO)、制御部401は、ランキングに変化がないか否かを判定する(S135)。ランキングに変化がない場合(S135でYES)、すなわち、先週と今週とで1位から5位までのランキングに変化がない場合、制御部401は、ユーザの興味関心タイプを「熟考型博士」タイプに分類し(S136)、ステップS134の処理を行う。 When there is no change in the higher ranking (NO in S132), the control unit 401 determines whether or not there is a change in the ranking (S135). If there is no change in the ranking (YES in S135), that is, if there is no change in the ranking from 1st to 5th between last week and this week, the control unit 401 sets the user's interest type to "contemplation type doctor" type. (S136), and the process of step S134 is performed.

ランキングに変化がある場合(S135でNO)、すなわち、上位の除く下位のランキング(例えば、3位から5位までのランキング)に変化がある場合、制御部401は、ユーザの興味関心タイプを「中間」タイプに分類し(S137)、ステップS134の処理を行う。また、ランキングの変化は、上位下位の入れ替わりだけでなく、ランキング全体の変化で判定してもよい。例えば、検出数の多い順の週次ランキングを最上位から所定数(所定数は可変)の順位までのランキング(例えば、TOP20位まで等)のうち、何割が入れ替わったかに応じて判定してもよい。例えば、ランキングが入れ替わったものがN割以上の場合には「好奇心旺盛」と判定し、ランキングが入れ替わらなかったものがN割以下の場合には「熟考型博士」と判定し、これら以外の場合には「中間」と判定してもよい。Nの数値は適宜設定可能である。なお、「好奇心旺盛」、「熟考型博士」、及び「中間」の文言は一例であって、これらの文言に限定されるものではない。 When there is a change in the ranking (NO in S135), that is, when there is a change in the lower ranking excluding the upper rank (for example, the ranking from the 3rd place to the 5th place), the control unit 401 sets the user's interest type to ". It is classified into the "intermediate" type (S137), and the process of step S134 is performed. Further, the change in the ranking may be determined not only by the replacement of the upper and lower ranks but also by the change of the entire ranking. For example, the weekly ranking in descending order of the number of detections is determined according to what percentage of the rankings (for example, TOP 20th place, etc.) from the highest rank to the predetermined number (the predetermined number is variable) have been replaced. May be good. For example, if the rankings are changed to N% or more, it is judged to be "curiosity", and if the rankings are not changed to N% or less, it is judged to be "contemplation type doctor". In the case of, it may be determined as "intermediate". The numerical value of N can be set as appropriate. The words "curiosity", "contemplation type doctor", and "intermediate" are examples, and are not limited to these words.

上述のように、分析部409は、特定部としての機能を有し、第1所定期間毎に分析した「興味あり」(第1指標)の変化を特定し、特定した「興味あり」の変化に応じて、ユーザの興味関心に関するタイプを分析してもよい。 As described above, the analysis unit 409 has a function as a specific unit, identifies changes in the "interested" (first index) analyzed at each first predetermined period, and identifies the changed "interested". Depending on the user's interests, the type of interest may be analyzed.

図15は興味関心タイプ分析機能の分析結果の一例を示す図である。図15に示す「OOちゃんの興味関心分析結果」画面511は、端末装置100の表示部104に表示することができる。「OOちゃんの興味関心分析結果」画面511は、例えば、エラーメッセージを表示するメッセージ表示エリア502、興味関心タイプを表示する表示エリア512、今週のログを表示する表示エリア514を有する。 FIG. 15 is a diagram showing an example of the analysis result of the interest type analysis function. The “OO-chan's interest analysis result” screen 511 shown in FIG. 15 can be displayed on the display unit 104 of the terminal device 100. The "OO-chan's interest analysis result" screen 511 has, for example, a message display area 502 for displaying an error message, a display area 512 for displaying an interest type, and a display area 514 for displaying this week's log.

図15の例では、興味関心タイプとして、『OOちゃんは「好奇心旺盛」タイプ いろいろなことに興味があります』の如く文言を表示されている。これにより、保護者は、子供の興味関心タイプを把握することができ、子供の興味関心タイプに合わせたフォローや後押しを行うことができる。「写真を選択」アイコン513を操作することにより、保護者は、端末装置100に記録した子供の写真や、他のスマートフォンやPCからアップロードした子供の写真の中から、所望の写真を表示することができる。 In the example of FIG. 15, as an interest type, a word such as "OO-chan is interested in various things" is displayed. As a result, the guardian can grasp the interest type of the child and can follow or support the child's interest type. By operating the "select photo" icon 513, the guardian can display the desired photo from the child's photo recorded on the terminal device 100 and the child's photo uploaded from another smartphone or PC. Can be done.

今週のログとして、「興味あり」分野のランキング、今週撮影した対象物の分野別の比率、「急上昇」などを表示することができる。「詳しく見る」アイコン515を操作することにより、「興味あり」分野のランキングをさらに詳しく表示させることができる。また、「先週のログを見る」アイコン516を操作することにより、今週のログに代えて、あるいは今週のログとともに、先週のログを表示させることができる。 As a log of this week, you can display the ranking of "interested" fields, the ratio of objects taken this week by field, "surge" and so on. By operating the "see details" icon 515, the ranking of the "interested" field can be displayed in more detail. Also, by operating the "View last week's log" icon 516, the last week's log can be displayed in place of this week's log or together with this week's log.

これにより、保護者は、子供の興味関心タイプを適切に捉えることができ、子供との日々のコミュニケーションや生活(購買活動など)に役立てることができる。 As a result, the guardian can appropriately grasp the interest type of the child and can use it for daily communication and life (purchasing activity, etc.) with the child.

図16は活動タイプ分析機能の処理手順の一例を示す図である。制御部401は、効果音再生機能及び朗読機能の使用回数を記録し(S141)、第3所定期間に亘って記録したか否かを判定する(S142)。効果音再生機能及び朗読機能の使用回数は、効果音再生モード及び朗読モードでの使用回数である。効果音再生モード及び朗読モードは手動又は自動で設定することができる。第3所定期間は、例えば、1か月とすることができるが、これに限定されるものではない。 FIG. 16 is a diagram showing an example of a processing procedure of the activity type analysis function. The control unit 401 records the number of times the sound effect reproduction function and the reading function have been used (S141), and determines whether or not the recording has been performed over a third predetermined period (S142). The number of times the sound effect reproduction function and the reading function are used is the number of times the sound effect reproduction mode and the reading mode are used. The sound effect reproduction mode and the reading mode can be set manually or automatically. The third predetermined period can be, for example, one month, but is not limited thereto.

第3所定期間に亘って記録していない場合(S142でNO)、制御部401は、ステップS141の処理を続ける。第3所定期間に亘って記録した場合(S142でYES)、制御部401は、効果音再生機能の使用回数の割合が全体のM割以上であるか否かを判定する(S143)。全体は、効果音再生機能の使用回数と朗読機能の使用回数との合計数である。また、Mの数値は可変であり、適宜変更することができる。効果音再生機能の使用回数の割合が全体のM割以上である場合(S143でYES)、制御部401は、ユーザの活動タイプを「探検家タイプ」に分類し(S144)、分析結果(活動タイプ)を端末装置100に提供し(S145)、処理を終了する。 If recording has not been performed for a third predetermined period (NO in S142), the control unit 401 continues the process of step S141. When recording is performed over a third predetermined period (YES in S142), the control unit 401 determines whether or not the ratio of the number of times the sound effect reproduction function is used is M% or more of the whole (S143). The whole is the total number of times the sound effect reproduction function is used and the number of times the reading function is used. Further, the numerical value of M is variable and can be changed as appropriate. When the ratio of the number of times the sound effect reproduction function is used is M% or more of the whole (YES in S143), the control unit 401 classifies the user's activity type into "explorer type" (S144), and the analysis result (activity). Type) is provided to the terminal device 100 (S145), and the process is terminated.

効果音再生機能の使用回数の割合が全体のM割以上でない場合(S143でNO)、制御部401は、朗読機能の使用回数の割合が全体のM割以上であるか否かを判定する(S146)。朗読機能の使用回数の割合が全体のM割以上である場合(S146でYES)、制御部401は、ユーザの活動タイプを「読書家タイプ」に分類し(S147)、ステップS145の処理を行う。朗読機能の使用回数の割合が全体のM割以上でない場合(S146でNO)、制御部401は、ユーザの活動タイプを「興味津々タイプ」に分類し(S148)、ステップS145の処理を行う。 When the ratio of the number of times the sound effect reproduction function is used is not M% or more of the whole (NO in S143), the control unit 401 determines whether or not the ratio of the number of times the reading function is used is M% or more of the whole (NO). S146). When the ratio of the number of times the reading function is used is M% or more of the whole (YES in S146), the control unit 401 classifies the user's activity type into the "reader type" (S147), and performs the process of step S145. .. When the ratio of the number of times the reading function is used is not M% or more of the whole (NO in S146), the control unit 401 classifies the user's activity type into the "interesting type" (S148), and performs the process of step S145.

上述のように、解析部403は、第3解析部としての機能を有し、収集した画像データに基づいて撮像対象が文字列であるか図であるかを解析することができる。音声合成部407は、朗読部としての機能を有し、撮像対象が文字列であると解析された場合、文字列を読み上げることができる。音再生部408は、再生部としての機能を有し、撮像対象が図であると解析した場合、当該図の内容に関連する音を再生することができる。分析部409は、第3所定期間(例えば、1か月など)に亘る、音声合成部407で読み上げた回数、及び音再生部408で再生した回数に基づいて、ユーザの活動タイプを分析してもよい。 As described above, the analysis unit 403 has a function as a third analysis unit, and can analyze whether the image pickup target is a character string or a figure based on the collected image data. The voice synthesis unit 407 has a function as a reading unit, and when it is analyzed that the image pickup target is a character string, the character string can be read aloud. The sound reproduction unit 408 has a function as a reproduction unit, and when it is analyzed that the image pickup target is a figure, the sound reproduction unit 408 can reproduce the sound related to the content of the figure. The analysis unit 409 analyzes the activity type of the user based on the number of times the voice synthesis unit 407 reads aloud and the number of times the sound reproduction unit 408 reproduces over a third predetermined period (for example, one month). May be good.

図17は活動タイプ分析機能の分析結果の一例を示す図である。図17に示す「OOちゃんの興味関心分析結果」画面521は、端末装置100の表示部104に表示することができる。「OOちゃんの興味関心分析結果」画面521は、例えば、エラーメッセージを表示するメッセージ表示エリア502、活動タイプを表示する表示エリア522、今週のログを表示する表示エリア514を有する。 FIG. 17 is a diagram showing an example of the analysis result of the activity type analysis function. The “OO-chan's interest analysis result” screen 521 shown in FIG. 17 can be displayed on the display unit 104 of the terminal device 100. The "OO-chan's interest analysis result" screen 521 has, for example, a message display area 502 for displaying an error message, a display area 522 for displaying an activity type, and a display area 514 for displaying this week's log.

図17の例では、活動タイプとして、『OOちゃんは「探検家」タイプ いろいろなものを探して遊ぶのが好きです』の如く文言を表示されている。これにより、保護者は、子供の活動タイプを把握することができ、子供の活動タイプに合わせたフォローや後押しを行うことができる。「写真を選択」アイコン513を操作することにより、保護者は、端末装置100に記録した子供の写真や、他のスマートフォンやPCからアップロードした子供の写真の中から、所望の写真を表示することができる。 In the example of FIG. 17, as an activity type, a word such as "OO-chan likes to search for and play various things" is displayed. As a result, the guardian can grasp the activity type of the child, and can follow or support according to the activity type of the child. By operating the "select photo" icon 513, the guardian can display the desired photo from the child's photo recorded on the terminal device 100 and the child's photo uploaded from another smartphone or PC. Can be done.

今週のログは、図15の場合と同様であるので、説明は省略する。このように、保護者は、子供の活動タイプを適切に捉えることができ、子供との日々のコミュニケーションや生活(購買活動など)に役立てることができる。 This week's log is the same as in FIG. 15, so the explanation is omitted. In this way, the guardian can properly grasp the activity type of the child and can be useful for daily communication and life (purchasing activity, etc.) with the child.

図18は好きな色分析機能の処理手順の一例を示す図である。制御部401は、画像データを収集し(S151)、第2所定期間に亘って収集したか否かを判定する(S152)。第2所定期間は、例えば、1週間とすることができるが、これに限定されない。第2所定期間に亘って収集していない場合(S152でNO)、制御部401は、ステップS151の処理を続ける。 FIG. 18 is a diagram showing an example of a processing procedure of a favorite color analysis function. The control unit 401 collects image data (S151) and determines whether or not the image data has been collected over a second predetermined period (S152). The second predetermined period can be, for example, one week, but is not limited to this. If the collection has not been performed for the second predetermined period (NO in S152), the control unit 401 continues the process of step S151.

第2所定期間に亘って収集した場合(S152でYES)、制御部401は、撮像対象に含まれる色を分類する(S153)。具体的には、分析部409は、色分析機能を有する学習モデルを備え、画像内の領域の色や画像内で使われている色を検出することができる。分析部409は、頻出色別に色を分類することができる。 When the collection is performed over the second predetermined period (YES in S152), the control unit 401 classifies the colors included in the image pickup target (S153). Specifically, the analysis unit 409 includes a learning model having a color analysis function, and can detect the color of the region in the image and the color used in the image. The analysis unit 409 can classify colors according to frequent colors.

制御部401は、色毎に撮像対象の合計数を算出する(S154)。すなわち、分類した色ごとに検出されたオブジェクトの合計数を算出すればよい。例えば、1週間の間に子供が黄色に分類されるオブジェクトを20個撮像したとすると、「黄色」の件数を20件とする。制御部401は、撮像数の多いものを「好きな色」として登録する(S155)。 The control unit 401 calculates the total number of imaging targets for each color (S154). That is, the total number of detected objects for each classified color may be calculated. For example, if a child images 20 objects classified as yellow in one week, the number of "yellow" objects is 20. The control unit 401 registers a color with a large number of images as a "favorite color" (S155).

制御部401は、直近の第2所定期間(例えば、先週)における色毎の撮像数と比較して、今回の第2所定期間(例えば、今週)における色毎の撮像数が増加傾向にある色を「急上昇」として登録する(S156)。例えば、先週と今週の色毎の撮像数の差分を算出し、算出した差分が所定の差分閾値以上である色を「急上昇」の色として登録することができる。あるいは、算出した差分が最も大きい色を「急上昇」の色として登録してもよい。 The control unit 401 has a color in which the number of images taken for each color in the second predetermined period (for example, this week) is increasing as compared with the number of images taken for each color in the latest second predetermined period (for example, last week). Is registered as a "surge" (S156). For example, the difference between the number of images taken for each color last week and this week can be calculated, and a color whose calculated difference is equal to or greater than a predetermined difference threshold value can be registered as a "rapid rise" color. Alternatively, the color with the largest calculated difference may be registered as the "rapid rise" color.

制御部401は、分析結果(「好きな色」、「急上昇」)を端末装置100に提供し(S157)、処理を終了する。なお、「好きな色」、及び「急上昇」の文言は一例であって、これらの文言に限定されるものではない。 The control unit 401 provides the analysis result (“favorite color”, “rapid rise”) to the terminal device 100 (S157), and ends the process. The words "favorite color" and "rapid rise" are examples, and are not limited to these words.

上述のように、分析部409は、第2解析部としての機能を有し、収集した画像データに基づいて撮像対象に含まれる色を解析する。分析部409は、第2所定期間の都度収集した解析結果に基づいて、ユーザの色に関する興味関心を分析してもよい。 As described above, the analysis unit 409 has a function as a second analysis unit, and analyzes the color included in the image pickup target based on the collected image data. The analysis unit 409 may analyze the user's interest in color based on the analysis result collected each time during the second predetermined period.

図19は好きな色分析機能の分析結果の一例を示す図である。図19に示す「OOちゃんの色の好み分析結果」画面531は、端末装置100の表示部104に表示することができる。「OOちゃんの色の好み分析結果」画面531は、例えば、エラーメッセージを表示するメッセージ表示エリア502、好きな色の画像を表示する表示エリア532、好きな色を表示する表示エリア533、「急上昇」の色を表示する表示エリア534を有する。 FIG. 19 is a diagram showing an example of the analysis result of the favorite color analysis function. The “OO-chan color preference analysis result” screen 531 shown in FIG. 19 can be displayed on the display unit 104 of the terminal device 100. The "OO-chan color preference analysis result" screen 531 is, for example, a message display area 502 for displaying an error message, a display area 532 for displaying an image of a favorite color, a display area 533 for displaying a favorite color, and a "surge". It has a display area 534 for displaying the color of.

表示エリア532には、『OOちゃんは特に「黄色」が好きみたいです!』の如く文言を、好きな色(黄色)で描かれた画像1~4が表示されている。画像1~4は、一定時間経過の都度、ライフログの中から別の画像に切り替えて表示してもよい。好きな色の順位(図19の例では、1位が「きいろ」、2位が「あか」、3位が「あお」)が表示されている。 In the display area 532, "OO-chan seems to like" yellow "especially! ], And images 1 to 4 drawn in a favorite color (yellow) are displayed. Images 1 to 4 may be displayed by switching to another image from the life log each time a certain period of time elapses. The order of favorite colors (in the example of FIG. 19, the first place is "kiiro", the second place is "red", and the third place is "blue") is displayed.

表示エリア533には、好きな色の順に、色ごとに検出されたオブジェクトの数が表示されている。図19の例では、「きいろ」が20件、「あか」が18件、「あお」が15件、「オレンジ」が10件、「緑」が7件という数値が表示されている。「緑」は、先週の分析結果と今週の分析結果と比較して、今週の撮影数が増加傾向にある色であり、「急上昇!」の文言が付与されている。 In the display area 533, the number of objects detected for each color is displayed in the order of favorite colors. In the example of FIG. 19, the numerical values of "kiiro" are 20 cases, "red" is 18 cases, "blue" is 15 cases, "orange" is 10 cases, and "green" is 7 cases. "Green" is a color in which the number of shots taken this week is increasing compared to last week's analysis results and this week's analysis results, and the wording "surge!" Is given.

表示エリア534には、『「緑」に最近興味がでてきたようです』の如く文言が表示され、緑で描かれた画像1~2が表示されている。これにより、保護者は、リアルタイムに子供が興味を持ち始めた色、好きな色を容易に把握できる。また、保護者は、興味のある色の変化を適切に捉えることができ、子供との日々のコミュニケーションや生活(購買活動など)に役立てることができる。前述の例では、図15に示した興味関心タイプ、図17に示した活動タイプ、及び図19に示した好みの色分析を、便宜上それぞれ個別の図を用いて説明したが、これらは一例であって、興味関心タイプ、活動タイプ、及び好みの色分析は、同一画面上で同時に表示することができる。 In the display area 534, words such as "It seems that you have recently become interested in" green "" are displayed, and images 1 and 2 drawn in green are displayed. This makes it easy for parents to grasp in real time the colors that their children are beginning to be interested in and the colors they like. In addition, parents can appropriately grasp the change in color they are interested in, which can be useful for daily communication and life (purchasing activities, etc.) with their children. In the above example, the interest type shown in FIG. 15, the activity type shown in FIG. 17, and the favorite color analysis shown in FIG. 19 have been described using individual figures for convenience, but these are examples. Therefore, the interest type, activity type, and favorite color analysis can be displayed simultaneously on the same screen.

(第5実施形態)
第4実施形態では、サーバ400に分析機能を設ける構成であったが、これに限定されるものではない。第5実施形態では、端末装置に分析機能を設ける構成について説明する。
(Fifth Embodiment)
In the fourth embodiment, the server 400 is provided with an analysis function, but the present invention is not limited to this. In the fifth embodiment, a configuration in which the terminal device is provided with an analysis function will be described.

図20は第5実施形態の情報処理システムの構成の一例を示す図である。情報処理システムは、撮像装置50、及び情報処理装置としての端末装置150を備える。撮像装置50は、第4実施形態の場合と同様である。端末装置150は、第4実施形態の場合と比較して、解析部155、文字列解析部156、図解析部157、順序推定部158、音声合成部159、音再生部160、分析部161、音声データリスト163、コンピュータプログラム164を備える点で相違する。解析部155、文字列解析部156、図解析部157、順序推定部158、音声合成部159、音再生部160、分析部161、音声データリスト163は、それぞれ第4実施形態のサーバ400が具備している解析部403、文字列解析部404、図解析部405、順序推定部406、音声合成部407、音再生部408、分析部409、音声データリスト411と同様である。コンピュータプログラム164は、制御部151によって実行されることにより、解析部155、文字列解析部156、図解析部157、順序推定部158、音声合成部159、音再生部160、及び分析部161の全部又は一部の機能を実現することができる。 FIG. 20 is a diagram showing an example of the configuration of the information processing system of the fifth embodiment. The information processing system includes an image pickup device 50 and a terminal device 150 as an information processing device. The image pickup apparatus 50 is the same as in the case of the fourth embodiment. Compared with the case of the fourth embodiment, the terminal device 150 has an analysis unit 155, a character string analysis unit 156, a figure analysis unit 157, an order estimation unit 158, a voice synthesis unit 159, a sound reproduction unit 160, and an analysis unit 161. It differs in that it includes an audio data list 163 and a computer program 164. The analysis unit 155, the character string analysis unit 156, the figure analysis unit 157, the order estimation unit 158, the voice synthesis unit 159, the sound reproduction unit 160, the analysis unit 161 and the voice data list 163 are each provided with the server 400 of the fourth embodiment. This is the same as the analysis unit 403, the character string analysis unit 404, the figure analysis unit 405, the order estimation unit 406, the voice synthesis unit 407, the sound reproduction unit 408, the analysis unit 409, and the voice data list 411. The computer program 164 is executed by the control unit 151, so that the analysis unit 155, the character string analysis unit 156, the figure analysis unit 157, the order estimation unit 158, the speech synthesis unit 159, the sound reproduction unit 160, and the analysis unit 161 All or part of the functions can be realized.

図21は第5実施形態の情報処理システムの処理手順の一例を示す図である。撮像装置50は、撮像対象を撮像し(S161)、撮像して得られた画像データを端末装置150へ送信する(S162)。端末装置150は、画像データを受信し(S163)、受信した画像データに基づいて撮像対象を解析する(S164)。端末装置150は、撮像対象が図であるか文字列であるかに応じて、図の内容に関連する音又は文字列を読み上げる音声を生成する(S165)。 FIG. 21 is a diagram showing an example of a processing procedure of the information processing system of the fifth embodiment. The image pickup apparatus 50 images an image pickup target (S161), and transmits the image data obtained by the image pickup to the terminal device 150 (S162). The terminal device 150 receives the image data (S163) and analyzes the image pickup target based on the received image data (S164). The terminal device 150 generates a sound or a voice that reads out a character string related to the content of the figure, depending on whether the image pickup target is a figure or a character string (S165).

端末装置150は、生成した音又は音声を撮像装置50へ送信する(S166)。撮像装置50は、音又は音声を受信し(S167)、受信した音又は音声を出力する(S168)。端末装置150は、受信した画像データ、解析結果を記憶部162に記録し(S169)、音の再生又は音声の読み上げ回数を更新する(S170)。幼児や子供などのユーザが、撮像装置50を持って撮像対象を撮像する都度、図21に示す処理が繰り返され、画像データ、解析結果、音の再生又は音声の読み上げ回数などの情報を収集することができる。なお、第5実施形態においても、図12~図19の場合と同様の処理が行われるので説明は省略する。 The terminal device 150 transmits the generated sound or voice to the image pickup device 50 (S166). The image pickup apparatus 50 receives sound or sound (S167) and outputs the received sound or sound (S168). The terminal device 150 records the received image data and the analysis result in the storage unit 162 (S169), and updates the number of times of sound reproduction or voice reading (S170). Each time a user such as an infant or a child holds an image pickup device 50 and images an image pickup target, the process shown in FIG. 21 is repeated to collect information such as image data, analysis results, sound reproduction, or voice reading frequency. be able to. In addition, since the same processing as in the case of FIGS. 12 to 19 is performed in the fifth embodiment, the description thereof will be omitted.

制御部151は、収集部としての機能を有し、通信部152を介して、撮像対象を撮像して得られた画像データを収集する。分析部161は、収集した画像データに基づいて、撮像対象を撮像したユーザ(幼児や子供)の興味関心を分析する。制御部151は、提供部としての機能を有し、分析部161の分析結果を提供することができる。 The control unit 151 has a function as a collection unit, and collects image data obtained by imaging an image pickup target via the communication unit 152. The analysis unit 161 analyzes the interests of the user (infant or child) who has taken an image of the image pickup target based on the collected image data. The control unit 151 has a function as a providing unit and can provide the analysis result of the analysis unit 161.

また、端末装置150上で動作するコンピュータプログラム164は、コンピュータに、撮像対象を撮像して得られた画像データを収集し、収集した画像データに基づいて、撮像対象を撮像したユーザの興味関心を分析し、分析結果を提供する、処理を実行させる。 Further, the computer program 164 operating on the terminal device 150 collects image data obtained by imaging the image pickup target on the computer, and based on the collected image data, interests the user who imaged the image pickup target. Analyze, provide analysis results, and execute processing.

このように、幼児や子供が興味や関心を持って撮像した撮像対象の画像データをライフログの一つとして収集し、収集したライフログに基づいて、幼児や子供の日々の興味関心を分析し、分析結果を保護者にフィードバックすることにより、保護者は、幼児や子供の興味関心に即したフォローや後押しが可能となる。例えば、保護者は、子供が興味や関心を示す分野に関連するグッズを買い与えることや、子供が興味や関心を示す場所や施設などに連れて行くことができる。 In this way, the image data of the image to be imaged taken by the infant or child with interest is collected as one of the life logs, and the daily interests of the infant or child are analyzed based on the collected life log. By feeding back the analysis results to the parents, the parents can follow and support according to the interests of infants and children. For example, parents can buy goods related to areas where their children are interested or interested, or take them to places or facilities where their children are interested or interested.

(第6実施形態)
第6実施形態では、撮像装置に分析機能を設ける構成について説明する。
(Sixth Embodiment)
In the sixth embodiment, a configuration in which the image pickup apparatus is provided with an analysis function will be described.

図22は第6実施形態の情報処理システムの構成の一例を示す図である。情報処理システムは、撮像装置50、及び端末装置100を備える。端末装置100は、第4実施形態の場合と同様である。撮像装置50は、第4実施形態の場合と比較して、解析部71、文字列解析部72、図解析部73、順序推定部65、音声合成部66、音再生部67、分析部68、音声データリスト70を備える点で相違する。解析部71、文字列解析部72、図解析部73、順序推定部65、音声合成部66、音再生部67、分析部68、音声データリスト70は、それぞれ第4実施形態のサーバ400が具備している解析部403、文字列解析部404、図解析部405、順序推定部406、音声合成部407、音再生部408、分析部409、音声データリスト411と同様である。 FIG. 22 is a diagram showing an example of the configuration of the information processing system of the sixth embodiment. The information processing system includes an image pickup device 50 and a terminal device 100. The terminal device 100 is the same as in the case of the fourth embodiment. Compared with the case of the fourth embodiment, the image pickup apparatus 50 includes an analysis unit 71, a character string analysis unit 72, a figure analysis unit 73, an order estimation unit 65, a voice synthesis unit 66, a sound reproduction unit 67, and an analysis unit 68. The difference is that the voice data list 70 is provided. The analysis unit 71, the character string analysis unit 72, the figure analysis unit 73, the order estimation unit 65, the voice synthesis unit 66, the sound reproduction unit 67, the analysis unit 68, and the voice data list 70 are each provided with the server 400 of the fourth embodiment. This is the same as the analysis unit 403, the character string analysis unit 404, the figure analysis unit 405, the order estimation unit 406, the voice synthesis unit 407, the sound reproduction unit 408, the analysis unit 409, and the voice data list 411.

図23は第6実施形態の撮像装置50の処理手順の一例を示す図である。撮像装置50は、撮像対象を撮像し(S181)、撮像して得られた画像データに基づいて撮像対象を解析する(S182)。撮像装置50は、撮像対象が図であるか文字列であるかに応じて、図の内容に関連する音又は文字列を読み上げる音声を生成する(S183)。 FIG. 23 is a diagram showing an example of the processing procedure of the image pickup apparatus 50 of the sixth embodiment. The image pickup apparatus 50 takes an image of the image pickup target (S181) and analyzes the image pickup target based on the image data obtained by the image pickup (S182). The image pickup apparatus 50 generates a sound or a voice that reads out a character string related to the content of the figure, depending on whether the image pickup target is a figure or a character string (S183).

撮像装置50は、生成した音又は音声を出力する(S184)。撮像装置50は、画像データ、解析結果を記憶部69に記録し(S185)、音の再生又は音声の読み上げ回数を更新する(S186)。幼児や子供などのユーザが、撮像装置50を持って撮像対象を撮像する都度、図23に示す処理が繰り返され、画像データ、解析結果、音の再生又は音声の読み上げ回数などの情報を収集することができる。なお、第6実施形態においても、図12~図19の場合と同様の処理が行われるので説明は省略する。 The image pickup apparatus 50 outputs the generated sound or sound (S184). The image pickup apparatus 50 records the image data and the analysis result in the storage unit 69 (S185), and updates the number of times of sound reproduction or voice reading (S186). Each time a user such as an infant or a child holds an image pickup device 50 and images an image pickup target, the process shown in FIG. 23 is repeated to collect information such as image data, analysis results, sound reproduction, or voice reading frequency. be able to. In the sixth embodiment as well, the same processing as in the case of FIGS. 12 to 19 is performed, so the description thereof will be omitted.

撮像装置50は、把持部62、撮像対象を覗き込むための窓部61、窓部61を介して撮像対象が覗き込まれた状態で撮像対象を撮像可能な撮像部51、撮像部51で撮像して収集された画像データに基づいて、撮像対象を撮像したユーザの興味関心を分析する分析部68、及び分析部68の分析結果を提供する提供部としての制御部11を備える。 The image pickup apparatus 50 is imaged by a grip portion 62, a window portion 61 for looking into the image pickup target, an image pickup unit 51 capable of capturing an image pickup target in a state where the image pickup target is viewed through the window portion 61, and an image pickup unit 51. An analysis unit 68 that analyzes the interests of the user who has imaged the imaged object based on the image data collected in the above process, and a control unit 11 as a providing unit that provides the analysis results of the analysis unit 68 are provided.

このように、幼児や子供が興味や関心を持って撮像した撮像対象の画像データをライフログの一つとして収集し、収集したライフログに基づいて、幼児や子供の日々の興味関心を分析し、分析結果を保護者にフィードバックすることにより、保護者は、幼児や子供の興味関心に即したフォローや後押しが可能となる。例えば、保護者は、子供が興味や関心を示す分野に関連するグッズを買い与えることや、子供が興味や関心を示す場所や施設などに連れて行くことができる。 In this way, the image data of the image to be imaged taken by the infant or child with interest is collected as one of the life logs, and the daily interests of the infant or child are analyzed based on the collected life log. By feeding back the analysis results to the parents, the parents can follow and support according to the interests of infants and children. For example, parents can buy goods related to areas where their children are interested or interested, or take them to places or facilities where their children are interested or interested.

第4実施形態~第6実施形態では、分析機能を、サーバ400、端末装置150、あるいは撮像装置50のいずれかに備える構成であったが、分析機能をサーバ400、端末装置150、及び撮像装置50の少なくとも2つで分散して備える構成でもよい。 In the fourth to sixth embodiments, the analysis function is provided in any one of the server 400, the terminal device 150, or the image pickup device 50, but the analysis function is provided in the server 400, the terminal device 150, and the image pickup device. It may be configured to be distributed and provided by at least two of 50.

図24は興味関心分析結果の推移の一例を示す図である。幼児や子供などのユーザの興味関心分析結果を、ユーザの成長に合わせて収集することにより、個々のユーザの興味関心分析結果を推移で把握することができる。図24の例では、「マイブーム」の分野(例えば、分野A1~A5)の変遷と、「急上昇」の分野(例えば、分野B1~B5)の変遷が、ユーザの年齢と共に表示されている。分野A1~A5、B1~B5は、共有の分野が含まれていれもよい。図24に示すようなデータを、多数のユーザについても収集することにより、ビックデータとして活用することが可能となる。また、個々のユーザの興味関心が今後どのように変化・推移するかを予測するようにしてもよい。 FIG. 24 is a diagram showing an example of changes in the results of interest analysis. By collecting the interest-interest analysis results of users such as infants and children according to the growth of the users, it is possible to grasp the interest-interest analysis results of individual users in transition. In the example of FIG. 24, the transition of the “my boom” field (for example, fields A1 to A5) and the transition of the “rapid rise” field (for example, fields B1 to B5) are displayed together with the age of the user. The fields A1 to A5 and B1 to B5 may include shared fields. By collecting the data shown in FIG. 24 for a large number of users, it becomes possible to utilize it as big data. In addition, it may be possible to predict how the interests of individual users will change / change in the future.

図25は年代別・地域別・時系列での興味関心分析結果の一例を示す図である。多数の子供たちの分析結果を収集し、年代別・地域別・時系列で興味関心の傾向の違いを把握することができる。これにより、年代別、地域別、保育園別などの任意のグループ(ユーザ群)ごとの時系列推移及び将来の予測を把握することができる。図25Aは、年代A1、A2、A3、…別に興味関心分野を分析した結果を示す。便宜上、興味関心分野をC1~C5としているが、分野の数はこれに限定されない。それぞれの年代での興味関心分野を、レーダチャートのような図で表してもよい。図25Bは、地域L1、L2、L3、…別に興味関心分野を分析した結果を示す。便宜上、興味関心分野をC1~C5としているが、分野の数はこれに限定されない。それぞれの地域での興味関心分野を、レーダチャートのような図で表してもよい。図25Cは、所定の基準時点(例えば、特定の年齢など)からの経過時間別に興味関心分野を分析した結果を示す。便宜上、興味関心分野をC1~C5としているが、分野の数はこれに限定されない。それぞれの経過時点での興味関心分野を、レーダチャートのような図で表してもよい。上述のように、分析部409は、収集した画像データに基づいて、年代別及び地域別の少なくとも1つで区分されたユーザ群の興味関心の時間的推移(例えば、任意のグループ毎の時系列推移、あるいは将来予測を含む)を分析してもよい。 FIG. 25 is a diagram showing an example of the results of interest analysis by age group, region, and time series. By collecting the analysis results of a large number of children, it is possible to grasp the difference in interest trends by age group, region, and time series. This makes it possible to grasp the time-series transition and future forecast for each arbitrary group (user group) such as by age group, region, and nursery school. FIG. 25A shows the results of analyzing the fields of interest by age groups A1, A2, A3, and so on. For convenience, the fields of interest are C1 to C5, but the number of fields is not limited to this. Areas of interest in each age group may be represented by a diagram such as a radar chart. FIG. 25B shows the results of analysis of areas of interest by regions L1, L2, L3, and so on. For convenience, the fields of interest are C1 to C5, but the number of fields is not limited to this. Areas of interest in each region may be represented by a diagram such as a radar chart. FIG. 25C shows the result of analyzing the field of interest according to the elapsed time from a predetermined reference time point (for example, a specific age). For convenience, the fields of interest are C1 to C5, but the number of fields is not limited to this. Areas of interest at each transition point may be represented by a diagram such as a radar chart. As described above, the analysis unit 409 uses the collected image data to determine the temporal transition of interests of the user group classified by at least one by age group and region (for example, a time series for each arbitrary group). (Including transitions or future forecasts) may be analyzed.

本実施の形態の音声読み上げシステムは、撮像装置と、撮像対象が記載された対象物を載置可能な載置面を有する本体装置とを備え、前記撮像装置は、把持部と、撮像対象を覗き込むための窓部と、前記窓部を介して撮像対象が覗き込まれた状態で前記撮像対象を撮像可能な撮像部と、前記撮像部で撮像して得られた画像データを前記本体装置へ送信する送信部とを備え、前記本体装置は、前記画像データを受信する受信部と、前記受信部で受信した画像データを解析する解析部と、前記解析部の解析結果に基づいて音声を出力する出力部とを備える。 The voice reading system of the present embodiment includes an image pickup device and a main body device having a mounting surface on which an object on which an image pickup target is described can be placed, and the image pickup device includes a grip portion and an image pickup target. A window unit for looking into, an image pickup unit capable of capturing an image pickup target in a state where the image pickup target is looked into through the window portion, and an image data obtained by imaging with the image pickup unit are used as the main body device. The main unit includes a transmitting unit for transmitting to, a receiving unit for receiving the image data, an analysis unit for analyzing the image data received by the receiving unit, and a voice based on the analysis result of the analysis unit. It has an output unit to output.

本実施の形態の音声読み上げシステムにおいて、前記載置面は、平面視で矩形状をなし、前記載置面の中央部を間にした1対の縁辺部それぞれから前記中央部に向かって高さが小さくなるように傾斜している。 In the voice reading system of the present embodiment, the front-described mounting surface has a rectangular shape in a plan view, and the height from each of the pair of edge portions sandwiching the central portion of the front-stated placement surface toward the central portion. Is tilted so that

本実施の形態の音声読み上げシステムにおいて、前記本体装置は、前記載置面の傾斜する方向に沿って前記載置面の他の1対の縁辺部に前記対象物の移動を規制する規制部を備える。 In the voice reading system of the present embodiment, the main body apparatus has a regulating unit that regulates the movement of the object on another pair of edge portions of the previously described mounting surface along the tilting direction of the previously described mounting surface. Be prepared.

本実施の形態の音声読み上げシステムにおいて、前記本体装置は、前記撮像装置を収容するための収容部を前記載置面に形成している。 In the voice reading system of the present embodiment, the main body apparatus forms an accommodating portion for accommodating the image pickup apparatus on the above-mentioned mounting surface.

本実施の形態の音声読み上げシステムにおいて、前記撮像装置は、前記対象物までの距離を検出する検出部と、前記検出部で検出した距離に応じて前記窓部を介した視野内の撮像対象が撮像可能となるように前記撮像部の撮像範囲を補正する補正部とを備える。 In the voice reading system of the present embodiment, in the image pickup device, the detection unit that detects the distance to the object and the image pickup target in the field of view through the window unit according to the distance detected by the detection unit. It is provided with a correction unit that corrects the imaging range of the imaging unit so that imaging is possible.

本実施の形態の音声読み上げシステムにおいて、前記解析部は、前記受信部で受信した画像データに基づいて撮像対象が文字列であるか図であるかを解析し、前記出力部は、前記解析部で撮像対象が文字列であると解析した場合、前記文字列を読み上げる音声を出力する。 In the voice reading system of the present embodiment, the analysis unit analyzes whether the image pickup target is a character string or a figure based on the image data received by the reception unit, and the output unit is the analysis unit. When it is analyzed that the image pickup target is a character string, the voice that reads out the character string is output.

本実施の形態の音声読み上げシステムにおいて、前記出力部は、前記解析部で撮像対象が図であると解析した場合、前記図の内容に関連する音を出力する。 In the voice reading system of the present embodiment, when the analysis unit analyzes that the image pickup target is a figure, the output unit outputs a sound related to the content of the figure.

本実施の形態の音声読み上げシステムは、前記解析部で撮像対象が文字列であると解析した場合、前記文字列に対して意味解析を行って感情指標を算出する感情指標算出部を備え、前記出力部は、前記感情指標算出部で算出した感情指標に応じた背景音楽を出力する。 The voice reading system of the present embodiment includes an emotion index calculation unit that calculates an emotion index by performing semantic analysis on the character string when the analysis unit analyzes that the image pickup target is a character string. The output unit outputs background music according to the emotion index calculated by the emotion index calculation unit.

本実施の形態の音声読み上げシステムは、前記解析部で撮像対象が文字列であると解析した場合、前記文字列の配列に基づいて前記文字列の読み上げ順序を推定する読み上げ順序推定部を備える。 The voice reading system of the present embodiment includes a reading order estimation unit that estimates the reading order of the character string based on the arrangement of the character string when the analysis unit analyzes that the image pickup target is a character string.

本実施の形態の音声読み上げシステムは、予め録音された音声の音声特徴量を用いて音声を合成する音声合成部を備え、前記出力部は、前記解析部で撮像対象が文字列であると解析した場合、前記文字列に基づいて前記音声合成部が合成した音声を出力する。 The voice reading system of the present embodiment includes a voice synthesis unit that synthesizes voice using a voice feature amount of a voice recorded in advance, and the output unit analyzes that the image pickup target is a character string by the analysis unit. If so, the voice synthesized by the voice synthesizer based on the character string is output.

本実施の形態の音声読み上げシステムは、予め録音された音声の素片を連結して音声を合成する音声合成部を備え、前記出力部は、前記解析部で撮像対象が文字列であると解析した場合、前記文字列に基づいて前記音声合成部が合成した音声を出力する。 The voice reading system of the present embodiment includes a voice synthesis unit that concatenates pre-recorded voice elements to synthesize voice, and the output unit analyzes that the image pickup target is a character string by the analysis unit. If so, the voice synthesized by the voice synthesizer based on the character string is output.

本実施の形態の音声読み上げ装置は、把持部と、撮像対象を覗き込むための窓部と、前記窓部を介して撮像対象が覗き込まれた状態で前記撮像対象を撮像可能な撮像部と、前記撮像部で撮像して得られた画像データを解析する解析部と、前記解析部の解析結果に基づいて音声を出力する出力部とを備える。 The voice reading device of the present embodiment includes a grip portion, a window portion for looking into the image pickup target, and an image pickup unit capable of taking an image of the image pickup target in a state where the image pickup target is looked into through the window portion. It is provided with an analysis unit that analyzes image data obtained by imaging with the image pickup unit, and an output unit that outputs audio based on the analysis result of the analysis unit.

本実施の形態の音声読み上げ装置は、撮像対象が記載された対象物までの距離を検出する検出部と、前記検出部で検出した距離に応じて前記窓部を介した視野内の撮像対象が撮像可能となるように前記撮像部の撮像範囲を補正する補正部とを備える。 In the voice reading device of the present embodiment, the detection unit that detects the distance to the object on which the image pickup target is described and the image pickup target in the field of view through the window portion according to the distance detected by the detection unit. It is provided with a correction unit that corrects the imaging range of the imaging unit so that imaging is possible.

本実施の形態の情報処理装置は、撮像対象を撮像して得られた画像データを収集する収集部と、前記収集部で収集した画像データに基づいて、前記撮像対象を撮像したユーザの興味関心を分析する分析部と、前記分析部の分析結果を提供する提供部とを備える。 The information processing apparatus of the present embodiment has a collection unit that collects image data obtained by imaging the image pickup target, and a user who has imaged the image pickup target based on the image data collected by the collection unit. It is provided with an analysis unit for analyzing the above and a providing unit for providing the analysis result of the analysis unit.

本実施の形態の情報処理装置は、前記収集部で収集した画像データに基づいて撮像対象の分野を解析する第1解析部を備え、前記分析部は、第1所定期間の都度収集した前記第1解析部の解析結果に基づいて、前記ユーザの興味関心を分析する。 The information processing apparatus of the present embodiment includes a first analysis unit that analyzes a field to be imaged based on the image data collected by the collection unit, and the analysis unit collects the first analysis unit each time during the first predetermined period. 1 Based on the analysis result of the analysis unit, the interest of the user is analyzed.

本実施の形態の情報処理装置において、前記分析部は、前記第1解析部で解析した分野毎に撮像された撮像対象の数に基づいて前記ユーザの興味関心に関する第1指標を分析する。 In the information processing apparatus of the present embodiment, the analysis unit analyzes the first index related to the user's interests based on the number of images to be imaged for each field analyzed by the first analysis unit.

本実施の形態の情報処理装置は、前記第1所定期間毎に前記分析部で分析した前記第1指標の変化を特定する特定部を備え、前記分析部は、前記特定部で特定した前記第1指標の変化に応じて、前記ユーザの興味関心に関するタイプを分析する。 The information processing apparatus of the present embodiment includes a specific unit that specifies a change in the first index analyzed by the analysis unit at each first predetermined period, and the analysis unit includes the first unit specified by the specific unit. 1 The type of interest of the user is analyzed according to the change of the index.

本実施の形態の情報処理装置において、前記分析部は、前記第1所定期間毎の、前記第1解析部で解析した分野毎に撮像された撮像対象の数の変化に基づいて前記ユーザの興味関心に関する第2指標を分析する。 In the information processing apparatus of the present embodiment, the analysis unit is interested in the user based on the change in the number of images to be imaged for each field analyzed by the first analysis unit for each first predetermined period. Analyze a second indicator of interest.

本実施の形態の情報処理装置において、前記分析部は、前記第1解析部で解析した分野毎に撮像された撮像対象の数のうち、撮像対象の数が最多の分野に基づいて前記ユーザの興味関心に関する第3指標を分析する。 In the information processing apparatus of the present embodiment, the analysis unit is based on the field in which the number of image pickup targets is the largest among the number of image pickup targets imaged in each field analyzed by the first analysis unit. Interest The third index of interest is analyzed.

本実施の形態の情報処理装置は、前記収集部で収集した画像データに基づいて撮像対象に含まれる色を解析する第2解析部を備え、前記分析部は、第2所定期間の都度収集した前記第2解析部の解析結果に基づいて、前記ユーザの色に関する興味関心を分析する。 The information processing apparatus of the present embodiment includes a second analysis unit that analyzes colors included in the image pickup target based on the image data collected by the collection unit, and the analysis unit collects each time during the second predetermined period. Based on the analysis result of the second analysis unit, the user's interest in color is analyzed.

本実施の形態の情報処理装置は、前記収集部で収集した画像データに基づいて撮像対象が文字列であるか図であるかを解析する第3解析部と、前記第3解析部で撮像対象が文字列であると解析した場合、前記文字列を読み上げる朗読部と、前記第3解析部で撮像対象が図であると解析した場合、前記図の内容に関連する音を再生する再生部とを備え、前記分析部は、第3所定期間に亘る、前記朗読部で読み上げた回数、及び前記再生部で再生した回数に基づいて、前記ユーザの活動タイプを分析する。 The information processing apparatus of the present embodiment has a third analysis unit that analyzes whether the image pickup target is a character string or a figure based on the image data collected by the collection unit, and a third analysis unit that analyzes the image pickup target. When it is analyzed that is a character string, a reading unit which reads out the character string, and when the third analysis unit analyzes that the image pickup target is a figure, a reproduction unit which reproduces a sound related to the contents of the figure. The analysis unit analyzes the activity type of the user based on the number of times the reading unit reads aloud and the number of times the reproduction unit reproduces the data over a third predetermined period.

本実施の形態の情報処理装置は、前記第3解析部の解析結果に基づいて音声を出力する出力部を備える。 The information processing apparatus of the present embodiment includes an output unit that outputs voice based on the analysis result of the third analysis unit.

本実施の形態の情報処理装置において、前記分析部は、前記収集部で収集した画像データに基づいて、年代別及び地域別の少なくとも1つで区分されたユーザ群の興味関心の時間的推移を分析する。 In the information processing apparatus of the present embodiment, the analysis unit determines the temporal transition of the interests of the user group classified by at least one by age group and region based on the image data collected by the collection unit. analyse.

本実施の形態の撮像装置は、把持部と、撮像対象を覗き込むための窓部と、前記窓部を介して撮像対象が覗き込まれた状態で前記撮像対象を撮像可能な撮像部と、前記撮像部で撮像して収集された画像データに基づいて、前記撮像対象を撮像したユーザの興味関心を分析する分析部と、前記分析部の分析結果を提供する提供部とを備える。 The image pickup apparatus of the present embodiment includes a grip portion, a window portion for looking into the image pickup target, and an image pickup unit capable of taking an image of the image pickup target with the image pickup target being looked into through the window portion. It includes an analysis unit that analyzes the interests of the user who has imaged the image pickup target based on the image data captured and collected by the image pickup unit, and a providing unit that provides the analysis result of the analysis unit.

本実施の形態のコンピュータプログラムは、コンピュータに、撮像対象を撮像して得られた画像データを収集し、収集した画像データに基づいて、前記撮像対象を撮像したユーザの興味関心を分析し、分析結果を提供する、処理を実行させる。 The computer program of the present embodiment collects image data obtained by imaging an image pickup target on a computer, and analyzes and analyzes the interests of the user who imaged the image pickup target based on the collected image data. Perform processing that provides results.

1 宅内ネットワーク
2 通信ネットワーク
10 本体装置
11、201 制御部
12 通信部
13、205 解析部
131、206 文字列解析部
132、207 図解析部
14、208 音声合成部
15、209 順序推定部
16、210 記憶部
161、211 BGMリスト
162、212 音声データリスト
17、213 マイク
18、214 スピーカ
19、215 感情指標算出部
21 載置面
22 縁辺部
23 中央部
24 規制部
25 収容部
26 表示灯
30 本体装置
31 第1通信部
32 第2通信部
33 記憶部
331 BGMリスト
34 マイク
35 スピーカ
36 制御部
50 撮像装置
51、202 撮像部
52、203 距離センサ
53、204 補正部
54 メモリ
55 プロセッサ
56 通信部
57 スピーカ
69 記憶部
70 音声データリスト
100、150 端末装置
101、151 制御部
102 第1通信部
103 第2通信部
152 通信部
104、153 表示部
105、154 操作部
106、162 記憶部
163 音声データリスト
164 コンピュータプログラム
300 サーバ
301 制御部
302 通信部
303 解析部
304 文字列解析部
305 図解析部
306 音声合成部
307 順序推定部
308 記憶部
309 音声データリスト
310 感情指標算出部
400 サーバ
401 制御部
402 通信部
403、155、71 解析部
404、156、72 文字列解析部
405、157、73 図解析部
406、158、65 順序推定部
407、159、66 音声合成部
408、160、67 音再生部
409、161、68 分析部
410 記憶部
411 音声データリスト
1 Home network 2 Communication network 10 Main unit 11, 201 Control unit 12 Communication unit 13, 205 Analysis unit 131, 206 Character string analysis unit 132, 207 Figure analysis unit 14, 208 Voice synthesis unit 15, 209 Order estimation unit 16, 210 Storage unit 161, 211 BGM list 162, 212 Voice data list 17, 213 Microphone 18, 214 Speaker 19, 215 Emotion index calculation unit 21 Mounting surface 22 Edge part 23 Central part 24 Restriction part 25 Containment part 26 Indicator light 30 Main unit 31 1st communication unit 32 2nd communication unit 33 Storage unit 331 BGM list 34 Microphone 35 Speaker 36 Control unit 50 Imaging device 51, 202 Imaging unit 52, 203 Distance sensor 53, 204 Correction unit 54 Memory 55 Processor 56 Communication unit 57 Speaker 69 Storage unit 70 Voice data list 100, 150 Terminal device 101, 151 Control unit 102 First communication unit 103 Second communication unit 152 Communication unit 104, 153 Display unit 105, 154 Operation unit 106, 162 Storage unit 163 Voice data list 164 Computer program 300 Server 301 Control unit 302 Communication unit 303 Analysis unit 304 Character string analysis unit 305 Figure analysis unit 306 Voice synthesis unit 307 Order estimation unit 308 Storage unit 309 Voice data list 310 Emotion index calculation unit 400 Server 401 Control unit 402 Communication unit 403, 155, 71 Analysis unit 404, 156, 72 Character string analysis unit 405, 157, 73 Figure analysis unit 406, 158, 65 Order estimation unit 407, 159, 66 Voice synthesis unit 408, 160, 67 Sound reproduction unit 409, 161 and 68 Analysis unit 410 Storage unit 411 Voice data list

Claims (25)

撮像装置と、撮像対象が記載された対象物を載置可能な載置面を有する本体装置とを備え、
前記撮像装置は、
把持部と、
撮像対象を覗き込むための窓部と、
前記窓部を介して撮像対象が覗き込まれた状態で前記撮像対象を撮像可能な撮像部と、
前記撮像部で撮像して得られた画像データを前記本体装置へ送信する送信部と
を備え、
前記本体装置は、
前記画像データを受信する受信部と、
前記受信部で受信した画像データを解析する解析部と、
前記解析部の解析結果に基づいて音声を出力する出力部と
を備える、
音声読み上げシステム。
It is provided with an image pickup device and a main body device having a mounting surface on which an object on which an image pickup target is described can be placed.
The image pickup device
With the grip
A window for looking into the object to be imaged, and
An image pickup unit capable of taking an image of the image pickup target while the image pickup target is being looked into through the window portion.
It is provided with a transmission unit that transmits image data obtained by imaging with the image pickup unit to the main unit.
The main body device is
A receiving unit that receives the image data and
An analysis unit that analyzes the image data received by the reception unit, and an analysis unit.
It is provided with an output unit that outputs voice based on the analysis result of the analysis unit.
Voice reading system.
前記載置面は、
平面視で矩形状をなし、
前記載置面の中央部を間にした1対の縁辺部それぞれから前記中央部に向かって高さが小さくなるように傾斜している、
請求項1に記載の音声読み上げシステム。
The above-mentioned surface is
It has a rectangular shape in a plan view,
The height is inclined from each of the pair of edge portions sandwiching the central portion of the above-mentioned mounting surface toward the central portion.
The voice reading system according to claim 1.
前記本体装置は、
前記載置面の傾斜する方向に沿って前記載置面の他の1対の縁辺部に前記対象物の移動を規制する規制部を備える、
請求項1又は請求項2に記載の音声読み上げシステム。
The main body device is
The other pair of edge portions of the previously described mounting surface are provided with a regulating portion for restricting the movement of the object along the inclined direction of the previously described mounting surface.
The voice reading system according to claim 1 or 2.
前記本体装置は、
前記撮像装置を収容するための収容部を前記載置面に形成している、
請求項1から請求項3のいずれか一項に記載の音声読み上げシステム。
The main body device is
An accommodating portion for accommodating the image pickup device is formed on the above-mentioned mounting surface.
The voice reading system according to any one of claims 1 to 3.
前記撮像装置は、
前記対象物までの距離を検出する検出部と、
前記検出部で検出した距離に応じて前記窓部を介した視野内の撮像対象が撮像可能となるように前記撮像部の撮像範囲を補正する補正部と
を備える、
請求項1から請求項4のいずれか一項に記載の音声読み上げシステム。
The image pickup device
A detector that detects the distance to the object,
It is provided with a correction unit that corrects the image pickup range of the image pickup unit so that the image pickup target in the field of view through the window unit can be imaged according to the distance detected by the detection unit.
The voice reading system according to any one of claims 1 to 4.
前記解析部は、
前記受信部で受信した画像データに基づいて撮像対象が文字列であるか図であるかを解析し、
前記出力部は、
前記解析部で撮像対象が文字列であると解析した場合、前記文字列を読み上げる音声を出力する、
請求項1から請求項5のいずれか一項に記載の音声読み上げシステム。
The analysis unit
Based on the image data received by the receiving unit, it is analyzed whether the image pickup target is a character string or a figure.
The output unit is
When the analysis unit analyzes that the image pickup target is a character string, it outputs a voice that reads out the character string.
The voice reading system according to any one of claims 1 to 5.
前記出力部は、
前記解析部で撮像対象が図であると解析した場合、前記図の内容に関連する音を出力する、
請求項6に記載の音声読み上げシステム。
The output unit is
When the analysis unit analyzes that the image pickup target is a figure, the sound related to the contents of the figure is output.
The voice reading system according to claim 6.
前記解析部で撮像対象が文字列であると解析した場合、前記文字列に対して意味解析を行って感情指標を算出する感情指標算出部を備え、
前記出力部は、
前記感情指標算出部で算出した感情指標に応じた背景音楽を出力する、
請求項6又は請求項7に記載の音声読み上げシステム。
When the analysis unit analyzes that the image pickup target is a character string, the analysis unit includes an emotion index calculation unit that performs semantic analysis on the character string and calculates an emotion index.
The output unit is
Outputs background music according to the emotion index calculated by the emotion index calculation unit.
The voice reading system according to claim 6 or 7.
前記解析部で撮像対象が文字列であると解析した場合、前記文字列の配列に基づいて前記文字列の読み上げ順序を推定する読み上げ順序推定部を備える、
請求項6から請求項8のいずれか一項に記載の音声読み上げシステム。
When the analysis unit analyzes that the image pickup target is a character string, the analysis unit includes a reading order estimation unit that estimates the reading order of the character string based on the arrangement of the character strings.
The voice reading system according to any one of claims 6 to 8.
予め録音された音声の音声特徴量を用いて音声を合成する音声合成部を備え、
前記出力部は、
前記解析部で撮像対象が文字列であると解析した場合、前記文字列に基づいて前記音声合成部が合成した音声を出力する、
請求項6から請求項9のいずれか一項に記載の音声読み上げシステム。
It is equipped with a voice synthesizer that synthesizes voice using the voice features of pre-recorded voice.
The output unit is
When the analysis unit analyzes that the image pickup target is a character string, the voice synthesized unit outputs the voice synthesized based on the character string.
The voice reading system according to any one of claims 6 to 9.
予め録音された音声の素片を連結して音声を合成する音声合成部を備え、
前記出力部は、
前記解析部で撮像対象が文字列であると解析した場合、前記文字列に基づいて前記音声合成部が合成した音声を出力する、
請求項6から請求項9のいずれか一項に記載の音声読み上げシステム。
Equipped with a voice synthesizer that synthesizes voice by concatenating pre-recorded voice elements
The output unit is
When the analysis unit analyzes that the image pickup target is a character string, the voice synthesized unit outputs the voice synthesized based on the character string.
The voice reading system according to any one of claims 6 to 9.
把持部と、
撮像対象を覗き込むための窓部と、
前記窓部を介して撮像対象が覗き込まれた状態で前記撮像対象を撮像可能な撮像部と、
前記撮像部で撮像して得られた画像データを解析する解析部と、
前記解析部の解析結果に基づいて音声を出力する出力部と
を備える、
音声読み上げ装置。
With the grip
A window for looking into the object to be imaged, and
An image pickup unit capable of taking an image of the image pickup target while the image pickup target is being looked into through the window portion.
An analysis unit that analyzes image data obtained by imaging with the imaging unit, and an analysis unit.
It is provided with an output unit that outputs voice based on the analysis result of the analysis unit.
Voice reading device.
撮像対象が記載された対象物までの距離を検出する検出部と、
前記検出部で検出した距離に応じて前記窓部を介した視野内の撮像対象が撮像可能となるように前記撮像部の撮像範囲を補正する補正部と
を備える、
請求項12に記載の音声読み上げ装置。
A detector that detects the distance to the object on which the imaging target is described, and
It is provided with a correction unit that corrects the image pickup range of the image pickup unit so that the image pickup target in the field of view through the window unit can be imaged according to the distance detected by the detection unit.
The voice reading device according to claim 12.
撮像対象を撮像して得られた画像データを収集する収集部と、
前記収集部で収集した画像データに基づいて、前記撮像対象を撮像したユーザの興味関心を分析する分析部と、
前記分析部の分析結果を提供する提供部と
を備える、
情報処理装置。
A collection unit that collects image data obtained by imaging an image target, and
An analysis unit that analyzes the interests of the user who captured the image pickup target based on the image data collected by the collection unit, and an analysis unit.
It is provided with a providing unit that provides the analysis result of the analysis unit.
Information processing equipment.
前記収集部で収集した画像データに基づいて撮像対象の分野を解析する第1解析部を備え、
前記分析部は、
第1所定期間の都度収集した前記第1解析部の解析結果に基づいて、前記ユーザの興味関心を分析する、
請求項14に記載の情報処理装置。
A first analysis unit that analyzes the field to be imaged based on the image data collected by the collection unit is provided.
The analysis unit
Based on the analysis result of the first analysis unit collected each time in the first predetermined period, the interest of the user is analyzed.
The information processing apparatus according to claim 14.
前記分析部は、
前記第1解析部で解析した分野毎に撮像された撮像対象の数に基づいて前記ユーザの興味関心に関する第1指標を分析する、
請求項15に記載の情報処理装置。
The analysis unit
The first index relating to the interest of the user is analyzed based on the number of images to be imaged for each field analyzed by the first analysis unit.
The information processing apparatus according to claim 15.
前記第1所定期間毎に前記分析部で分析した前記第1指標の変化を特定する特定部を備え、
前記分析部は、
前記特定部で特定した前記第1指標の変化に応じて、前記ユーザの興味関心に関するタイプを分析する、
請求項16に記載の情報処理装置。
A specific unit for specifying a change in the first index analyzed by the analysis unit is provided for each first predetermined period.
The analysis unit
The type of interest of the user is analyzed according to the change of the first index specified by the specific unit.
The information processing apparatus according to claim 16.
前記分析部は、
前記第1所定期間毎の、前記第1解析部で解析した分野毎に撮像された撮像対象の数の変化に基づいて前記ユーザの興味関心に関する第2指標を分析する、
請求項15から請求項17のいずれか一項に記載の情報処理装置。
The analysis unit
The second index regarding the interest of the user is analyzed based on the change in the number of images to be imaged for each field analyzed by the first analysis unit for each first predetermined period.
The information processing apparatus according to any one of claims 15 to 17.
前記分析部は、
前記第1解析部で解析した分野毎に撮像された撮像対象の数のうち、撮像対象の数が最多の分野に基づいて前記ユーザの興味関心に関する第3指標を分析する、
請求項15から請求項18のいずれか一項に記載の情報処理装置。
The analysis unit
Among the number of images to be imaged for each field analyzed by the first analysis unit, the third index relating to the interest of the user is analyzed based on the field having the largest number of images to be imaged.
The information processing apparatus according to any one of claims 15 to 18.
前記収集部で収集した画像データに基づいて撮像対象に含まれる色を解析する第2解析部を備え、
前記分析部は、
第2所定期間の都度収集した前記第2解析部の解析結果に基づいて、前記ユーザの色に関する興味関心を分析する、
請求項15から請求項19のいずれか一項に記載の情報処理装置。
It is provided with a second analysis unit that analyzes the colors included in the image pickup target based on the image data collected by the collection unit.
The analysis unit
Based on the analysis result of the second analysis unit collected each time in the second predetermined period, the user's interest in color is analyzed.
The information processing apparatus according to any one of claims 15 to 19.
前記収集部で収集した画像データに基づいて撮像対象が文字列であるか図であるかを解析する第3解析部と、
前記第3解析部で撮像対象が文字列であると解析した場合、前記文字列を読み上げる朗読部と、
前記第3解析部で撮像対象が図であると解析した場合、前記図の内容に関連する音を再生する再生部と
を備え、
前記分析部は、
第3所定期間に亘る、前記朗読部で読み上げた回数、及び前記再生部で再生した回数に基づいて、前記ユーザの活動タイプを分析する、
請求項15から請求項20のいずれか一項に記載の情報処理装置。
A third analysis unit that analyzes whether the image pickup target is a character string or a figure based on the image data collected by the collection unit, and
When the third analysis unit analyzes that the image pickup target is a character string, the reading unit that reads out the character string and the reading unit
When the third analysis unit analyzes that the image pickup target is a figure, the third analysis unit includes a reproduction unit that reproduces the sound related to the contents of the figure.
The analysis unit
3. The activity type of the user is analyzed based on the number of times the reading section reads aloud and the number of times the reading section plays the song over a predetermined period.
The information processing apparatus according to any one of claims 15 to 20.
前記第3解析部の解析結果に基づいて音声を出力する出力部を備える、
請求項21に記載の情報処理装置。
An output unit that outputs voice based on the analysis result of the third analysis unit is provided.
The information processing apparatus according to claim 21.
前記分析部は、
前記収集部で収集した画像データに基づいて、年代別及び地域別の少なくとも1つで区分されたユーザ群の興味関心の時間的推移を分析する、
請求項1から請求項22のいずれか一項に記載の情報処理装置。
The analysis unit
Based on the image data collected by the collection unit, the temporal transition of interests of the user group classified by at least one by age group and region is analyzed.
The information processing apparatus according to any one of claims 1 to 22.
把持部と、
撮像対象を覗き込むための窓部と、
前記窓部を介して撮像対象が覗き込まれた状態で前記撮像対象を撮像可能な撮像部と、
前記撮像部で撮像して収集された画像データに基づいて、前記撮像対象を撮像したユーザの興味関心を分析する分析部と、
前記分析部の分析結果を提供する提供部と
を備える、
撮像装置。
With the grip
A window for looking into the object to be imaged, and
An image pickup unit capable of taking an image of the image pickup target while the image pickup target is being looked into through the window portion.
An analysis unit that analyzes the interests of the user who has imaged the image pickup target based on the image data captured and collected by the image pickup unit.
It is provided with a providing unit that provides the analysis result of the analysis unit.
Imaging device.
コンピュータに、
撮像対象を撮像して得られた画像データを収集し、
収集した画像データに基づいて、前記撮像対象を撮像したユーザの興味関心を分析し、
分析結果を提供する、
処理を実行させるコンピュータプログラム。
On the computer
Collect the image data obtained by imaging the image to be imaged,
Based on the collected image data, the interests of the user who imaged the image pickup target are analyzed.
Providing analysis results,
A computer program that executes processing.
JP2021190285A 2020-12-02 2021-11-24 Voice reading system, voice reading apparatus, information processing apparatus, imaging apparatus, and computer program Pending JP2022088329A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020200398 2020-12-02
JP2020200398 2020-12-02

Publications (1)

Publication Number Publication Date
JP2022088329A true JP2022088329A (en) 2022-06-14

Family

ID=81982306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021190285A Pending JP2022088329A (en) 2020-12-02 2021-11-24 Voice reading system, voice reading apparatus, information processing apparatus, imaging apparatus, and computer program

Country Status (1)

Country Link
JP (1) JP2022088329A (en)

Similar Documents

Publication Publication Date Title
Knight NLP at Work: The Difference that Makes the Difference
JP6888096B2 (en) Robot, server and human-machine interaction methods
Matthen Seeing, doing, and knowing: A philosophical theory of sense perception
King The dynamic dance: Nonvocal communication in African great apes
Carey et al. Cognitive development
CN107784354B (en) Robot control method and accompanying robot
CN109637207A (en) A kind of preschool education interactive teaching device and teaching method
CA2716485A1 (en) Methods and devices for language skill development
JP6589880B2 (en) Information processing system, control method, and storage medium
D'errico Powers of Divergence: an experimental approach to music performance
Noyle Pianists on playing: Interviews with twelve concert pianists
Bateman 13 Looking for what counts in film analysis: A programme of empirical research
Ortega Acquisition of a signed phonological system by hearing adults: The Role of sign structure and iconcity
Sylwester A Child′ s Brain: The Need for Nurture
Vickhoff A perspective theory of music perception and emotion
CN108492855A (en) A kind of apparatus and method for training the elderly's attention
Ball The Book of Minds: How to Understand Ourselves and Other Beings, from Animals to AI to Aliens
JP6115976B1 (en) Information processing equipment, programs
JP2022088329A (en) Voice reading system, voice reading apparatus, information processing apparatus, imaging apparatus, and computer program
Howard Charm and speed: Virtuosity in the performing arts
Radick Primate language and the playback experiment, in 1890 and 1980
Hunter The cognitive body
Ravetto-Biagioli Dancing with and within the Digital Domain
US20160098932A1 (en) System and method by means of mobile devices to stimulate brain's work
Herman Public Engagement Technology for Bioacoustic Citizen Science