JP7064159B1 - 情報処理方法、プログラム、及び情報処理装置 - Google Patents

情報処理方法、プログラム、及び情報処理装置 Download PDF

Info

Publication number
JP7064159B1
JP7064159B1 JP2021060980A JP2021060980A JP7064159B1 JP 7064159 B1 JP7064159 B1 JP 7064159B1 JP 2021060980 A JP2021060980 A JP 2021060980A JP 2021060980 A JP2021060980 A JP 2021060980A JP 7064159 B1 JP7064159 B1 JP 7064159B1
Authority
JP
Japan
Prior art keywords
image
question
information processing
displayed
child
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021060980A
Other languages
English (en)
Other versions
JP2022156996A (ja
Inventor
達也 若狭
励 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2021060980A priority Critical patent/JP7064159B1/ja
Application granted granted Critical
Publication of JP7064159B1 publication Critical patent/JP7064159B1/ja
Publication of JP2022156996A publication Critical patent/JP2022156996A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】本発明は、施設の利用者を撮影した画像を、画像以外の情報と共に提供する情報処理方法、プログラム、及び情報処理装置を提供する。【解決手段】本実施形態に係る情報処理方法は、情報処理装置が実行するものであって、利用者が利用する施設に設置された撮影装置が撮影した画像から、抽出された画像を表示する処理と、前記画像についての第1の質問と、前記第1の質問の回答として第1の選択候補と、を表示する処理と、前記利用者に対してとるアクションを表示する処理と、を含む。【選択図】図7

Description

本発明は、撮影装置が撮影した画像の表示に係る処理を行う情報処理方法、プログラム、及び情報処理装置に関する。
発達心理学において、保育を通して非認知的能力を育むことの重要性が認識されている。特許文献1においては、非認知能力を診断するための手法が提案されている。
特開2021-039572号公報
このような非認知能力を育む契機となる機会を見つけることが難しい。特に、発達心理学の分野では、幼少期にある子供は褒められることにより非認知能力を育むことが期待できることが知られている。
一方、子供は保育園や学童などの施設において過ごす時間が長く、保護者の目の届かないところで様々な経験を積む。そのため、保護者と子供との間の会話の話題を見つけて、子供を褒めることに繋げていくことは容易ではない。
本発明は、上記の課題を鑑みてなされたものであり、保護者と子供との間の会話を促すことを目的とする。
一実施形態にかかる情報処理装置が実行する情報処理方法は、施設の子供を撮影した画像を、画像以外の情報と共に提供する方法であって、子供が利用する施設に設置された撮影装置が撮影した画像から、前記施設で過ごす前記子供の様子を撮影した画像を抽出して表示する処理と、前記画像についての第1の質問と、前記第1の質問の回答として第1の選択候補と、を表示する処理と、前記子供に対して前記子供の保護者がとり得るアクションを表示する処理と、を含む。
一実施形態によれば、保護者と子供との間の会話を促すことが期待できる。
本実施形態に係る制御システムの構成の一例を示す図である。 情報処理装置のハードウェア構成の一例を示す図である。 端末装置のハードウェア構成の一例を示す図である。 情報処理装置の機能構成の一例を示す図である。 ユーザDBの一構成例を示す模式図である。 端末装置の機能構成の一例を示す図である。 第1質問表示画面の一例を示す図である。 第2質問表示画面の一例を示す図である。 第2質問表示画面の一例を示す図である。 第3質問表示画面の一例を示す図である。 第3質問表示画面の一例を示す図である。 情報処理装置による画像記憶処理の一例を示すフローチャートである。 情報処理装置による画像表示処理の一例を示すフローチャートである。 端末装置による画像表示処理の一例を示すフローチャートである。 第2の実施形態に係る選択画面の一例を示す図である。 第2の実施形態に係る第1質問表示画面の一例を示す図である。 第2の実施形態に係る第2質問表示画面の一例を示す図である。 第2の実施形態に係る第2質問表示画面の一例を示す図である。 第2の実施形態に係る第3質問表示画面の一例を示す図である。 第2の実施形態に係る第3質問表示画面の一例を示す図である。 第2の実施形態に係る抽出画像表示画面の一例を示す図である。 第2の実施形態に係る端末装置による画像表示処理の一例を示すフローチャートである。
以下、本発明の各実施形態について、添付の図面を参照しながら説明する。なお、各実施形態に係る明細書及び図面の記載に関して、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。
<システム概要>
図1は、本実施形態に係る情報処理システム1の構成の一例を示す図である。本実施形態に係る情報処理システム1は、施設に設置された撮影装置20が撮影した画像を情報処理装置10へ送信し、撮影装置20から受信した画像を情報処理装置10が処理してユーザの端末装置30へ送信するシステムである。なお、画像は、静止画像、又は動画像である。
図1に例示するように、本実施形態に係る情報処理システム1は、情報処理装置10、撮影装置20、及び端末装置30を備える。情報処理装置10、撮影装置20、及び端末装置30は、ネットワークNを介して相互に通信可能に接続される。ネットワークNは、例えば、有線LAN(Local Area Network)、無線LAN、インターネット、公衆回線網、モバイルデータ通信網、又はこれらの組み合わせである。また、情報処理装置10と撮影装置20とを接続するネットワークと、情報処理装置10と端末装置30とを接続するネットワークと、撮影装置20と端末装置30とを接続するネットワークとは、異なるものであってもよい。なお、図1の例では、情報処理システム1は、情報処理装置10、撮影装置20、及び端末装置30をそれぞれ1つ備えるが、複数備えてもよい。
情報処理装置10は、ネットワークNを介して撮影装置20から画像を受信し、受信した画像を記憶装置(後述するストレージ103)に記憶して蓄積し、ユーザが使用する端末装置30に対して、蓄積した画像を送信する装置(コンピュータ)である。なお、情報処理装置10は、PC(Personal Computer)、スマートフォン、タブレット端末、サーバ、又はこれらの組み合わせである。情報処理装置10について、詳しくは後述する。
撮影装置20は、例えば1秒間に数回~数十回の周期で撮影を行い、撮影により得られた画像を情報処理装置10へ送信する。また、撮影装置20は、例えばカメラを有するスマートフォン又はタブレット型端末装置等の装置であってもよい。また、撮影装置20は、撮影方向又は画角等が可変の装置であってよく、例えば所定の被写体を自動追跡して撮影を行うカメラであってもよい。また撮影装置20は、例えば360°の範囲を撮影可能なカメラであってもよい。また、撮影装置20は、例えばドローン等の移動体に搭載されるカメラであってよく、施設に設置された撮影装置20には、このような移動体に搭載されたカメラにて施設の内外の撮影を行う装置が含まれ得る。また、施設には、上記のような種々の構成の撮影装置20が複数設置されてよい。この撮影装置20は単にカメラともいう。
端末装置30は、スマートフォン又はPC(パーソナルコンピュータ)等の端末装置である。この端末装置30は、一例として、施設を利用する子供(利用者)の保護者(関係者)等が所有しており、端末装置30に対して提供される本サービスは子供と保護者とで使用する。なお、本実施形態において、ユーザとは、保護者、施設の利用者である子供、又は親子等である。端末装置30は、情報処理装置10によって送信された情報をネットワークNを介して取得し、画面上に表示させる。また、撮影装置20が撮影した画像を、ネットワークNを介して情報処理装置10から取得してもよい。これにより、例えば、保育園又は幼稚園等の施設に子供を預けている保護者は、当該施設で過ごす子供の様子を撮影装置20にて撮影した画像を自身の撮影装置20にて閲覧することができる。そして、本実施形態では、端末装置30に表示される上述のような画像を保護者と子供とで共に閲覧することを想定している。
なお、本例では保育園又は幼稚園等の施設にて子供の撮影を行う場合について説明したが、本実施形態に係る情報処理システム1の適用は保育園又は幼稚園等の施設に限られない。施設は、例えば遊園地又はテーマパーク等の商業施設であってもよく、また例えばスポーツ又はイベント等が開催される会場等の施設であってもよく、また例えば利用者の自宅であってもよい。また撮影装置20による撮影対象は、人でなくてもよく、例えば動物園の動物又は自宅のペット等であってもよい。
<ハードウェア構成>
次に、情報処理装置10のハードウェア構成について図2を用いて説明する。図2は、情報処理装置10のハードウェア構成の一例を示す図である。図2に示すように、情報処理装置10は、バスB1を介して相互に接続された、プロセッサ101と、メモリ102と、ストレージ103と、通信I/F104と、入出力I/F105と、ドライブ装置106と、を備える。さらに、情報処理装置10は、入力装置107と、出力装置108と、を備える。
プロセッサ101は、ストレージ103に記憶されたプログラムをメモリ102に展開して実行することにより、情報処理装置10の各構成を制御し、情報処理装置10の機能を実現する。プロセッサ101が実行するプログラムは、OS(Operating System)及び表示制御等を行うためのサーバプログラムを含むが、これに限られない。プロセッサ101がサーバプログラムを実行することにより、本実施形態に係る制御が実現される。プロセッサ101は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、又はこれらの組み合わせである。
メモリ102は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、又はこれらの組み合わせである。ROMは、例えば、PROM(Programmable ROM)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、又はこれらの組み合わせである。RAMは、例えば、DRAM(Dynamic RAM)、SRAM(Static RAM)、MRAM(Magnetoresistive RAM)、又はこれらの組み合わせである。
ストレージ103は、OS、サーバプログラム、及び各種のデータを記憶する。ストレージ103は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、SCM(Storage Class Memories)、又はこれらの組み合わせである。
通信I/F104は、情報処理装置10をネットワークNに接続させるためのインタフェースである。
入出力I/F105は、情報処理装置10に入力装置107及び出力装置108を接続するためのインタフェースである。
ドライブ装置106は、ディスクメディア109のデータを読み書きする。ディスクメディア109は、例えば、磁気ディスクドライブ、光学ディスクドライブ、光磁気ディスクドライブ、又はこれらの組み合わせである。ディスクメディア109は、例えば、CD、DVD、FD、MO、又はこれらの組み合わせである。
入力装置107は、例えば、マウス、キーボード、タッチパネル、マイク、スキャナ、カメラ、各種センサ、又はこれらの組み合わせである。
出力装置108は、例えば、ディスプレイ、プロジェクタ、プリンタ、スピーカ、又はこれらの組み合わせである。
なお、本実施形態において、サーバプログラムは、情報処理装置10の製造段階でメモリ102又はストレージ103に書き込まれてもよいし、ネットワークNを介して情報処理装置10に提供されてもよいし、非一時的でコンピュータ読み取り可能な記録媒体を介して情報処理装置10に提供されてもよい。
図3は、端末装置30のハードウェア構成の一例を示す図である。図3に示すように、端末装置30は、バスB3を介して相互に接続された、プロセッサ301と、メモリ302と、ストレージ303と、通信I/F304と、入出力I/F305と、を備える。さらに、端末装置30は、入力装置307と、出力装置308と、を備える。
プロセッサ301は、ストレージ303に記憶されたプログラムをメモリ302に展開して実行することにより、端末装置30の各構成を制御し、端末装置30の機能を実現する。プロセッサ301が実行するプログラムは、OS、及び表示制御プログラム等のサーバプログラムを含むが、これに限られない。プロセッサ301は、例えば、CPU、MPU、GPU、ASIC、DSP、又はこれらの組み合わせである。
メモリ302は、例えば、ROM、RAM、又はこれらの組み合わせである。ROMは、例えば、PROM、EPROM、EEPROM、又はこれらの組み合わせである。RAMは、例えば、DRAM、SRAM、MRAM、又はこれらの組み合わせである。
ストレージ303は、OS、サーバプログラム、及び各種のデータを記憶する。ストレージ303は、例えば、フラッシュメモリ、HDD、SSD、SCM、又はこれらの組み合わせである。
通信I/F304は、端末装置30をネットワークNに接続させるためのインタフェースである。通信I/F304は、例えば、Bluetooth(登録商標)、Wi-Fi(登録商標)、ZigBee(登録商標)、又はこれらの組み合わせによる無線通信が可能である。
入出力I/F305は、端末装置30に入力装置307及び出力装置308を接続するためのインタフェースである。
入力装置307は、例えば、マウス、キーボード、タッチパネル、マイク、スキャナ、カメラ、各種センサ、又はこれらの組み合わせである。
出力装置308は、例えば、ディスプレイ、プロジェクタ、プリンタ、スピーカ、又はこれらの組み合わせである。
なお、本実施形態において、サーバプログラムは、端末装置30の製造段階でメモリ302又はストレージ303に書き込まれてもよいし、ネットワークNを介して端末装置30に提供されてもよいし、非一時的でコンピュータ読み取り可能な記録媒体を介して端末装置30に提供されてもよい。
<機能構成>
次に、情報処理装置10、及び端末装置30の機能構成についてそれぞれ説明する。図4は、情報処理装置10の機能構成の一例を示す図である。図4に例示するように、情報処理装置10は、通信部11と、記憶部12と、制御部13と、を備える。
通信部11は、通信I/F104により実現される。通信部11は、ネットワークNを介して、種々の装置との間で通信を行う。本実施形態において、通信部11は、ネットワークNを介して、撮影装置20から撮影された画像を受信する。また、通信部11は、端末装置30に対して情報を送信し、端末装置30からユーザによるリクエストを受信する。このようにして、通信部11は、ネットワークNを介して、撮影装置20や端末装置30との間で情報の送受信を行う。また、通信部11は、制御部13から与えられたデータを他の装置へ送信すると共に、他の装置から受信したデータを制御部13へ与える。
記憶部12は、メモリ102、及びストレージ103により実現される。記憶部12は、制御部13が実行する各種のプログラム、及び、制御部13の処理に必要な各種のデータを記憶する。記憶部12には、画像記憶部120、ユーザDB121、サーバプログラム122、学習モデル123、質問情報記憶部124、及びアクション情報記憶部125が格納される。
画像記憶部120は、撮影装置20から受信し、情報処理装置10にて選別された画像を記憶する。画像記憶部120は、例えば撮影装置20が設置された施設の識別子(ID)、撮影装置20が複数設置される場合には各撮影装置20のID、及び、画像が撮影された日時等により複数の画像を分類して記憶する。また本実施形態において画像記憶部120は、画像に写された人の識別結果、並びに、この人の表情又は行動等の識別結果等の情報を付随情報として画像に付して記憶してもよい。なお、本実施形態において、画像記憶部120は、画像記憶部120選別された画像に記憶するが、これに替えて、撮影装置20が撮影した実体である画像を記憶したり、撮影装置20が撮影した実体である画像を記憶する構成を別途設けてもよい。
ユーザDB121は、本実施形態に係る情報処理システム1が提供するサービスについて利用登録を行ったユーザに関する情報を記憶するデータベースである。ユーザDB121について、図5を用いて説明する。
図5は、ユーザDB121の一構成例を示す模式図である。本実施形態に係るユーザDB121は、例えば、「ユーザID」、「施設ID」、及び「対象者」の情報を対応付けて記憶する。「ユーザID」は、本実施形態に係る情報処理システム1が提供するサービスを利用するユーザに対して一意に付された識別情報である。上述したように、ユーザは、例えば、保育園を利用する子供の保護者を含み、本例ではユーザIDとして保護者001、保護者002等のIDが付されている。なお、図5に例示した「ユーザID」は一例であり、例えば保育士も本システムを利用する場合には、「ユーザID」は、保育士のIDをも含み得る。
「施設ID」は、施設に対して一意に付された識別情報である。本例では施設IDとして保育園a等のIDが付されている。
「対象者」は、施設に設置された撮影装置20による撮影の対象となる利用者(子供)に関する情報であり、ユーザが画像を閲覧等することが可能な対象者に関する情報である。「対象者」には、例えば、名前が含まれ得る。名前は、対象者の本名、又は愛称等であり、本例では「ひなちゃん」、「たくやくん」等の愛称が設定されている。なお、図5に例示した「対象者」は一例であり、例えば、対象者の顔写真等から抽出された、対象者の顔の特徴を特徴量等の情報を含んでもよい。
なお、ユーザDB121の構成は、図示のものに限らない。ユーザDB121には、上記の情報以外にも、例えば、ユーザの名前、施設の名前、端末装置30に付されたID、ユーザの住所、電話番号、もしくはメールアドレス等の連絡先、又は、サービスに対するログイン用のパスワード等の種々の情報が記憶され得る。
次に、記憶部12の機能構成に関する説明にもどり、サーバプログラム122について説明する。本実施形態においてサーバプログラム122は、上述したように、プロセッサ101より実行されることにより、情報処理装置10の各構成を制御し、情報処理装置10の機能を実現するものである。サーバプログラム122は、メモリカード、又はディスクメディア109等の記録媒体に記録された態様で提供され、情報処理装置10が、提供されたサーバプログラム122を取得して記憶部12に記憶する。ただし、このサーバプログラム122は、例えば、情報処理装置10の製造段階において記憶部12に書き込まれてもよい。
また、例えば、サーバプログラム122は、遠隔の他のサーバ装置等により配信されてもよく、この場合、情報処理装置10は、配信されるサーバプログラム122をネットワークNを介して取得してもよい。また、例えば、サーバプログラム122は、ディスクメディア109等の記録媒体に記録されたものをドライブ装置106等が読み出して情報処理装置10の記憶部12に書き込まれてもよい。
学習モデル123は、本実施形態において用いる様々な学習モデルであり、詳しくは後述する。対象者の感情とユーザのアクションとの関係等を学習しており、対象者の感情に適したアクションを出力するように予め機械学習された学習済みの学習モデルである。
この学習モデルを、単に学習モデル、又はモデルともいう。モデルの学習処理及び再学習処理は、例えば、情報処理装置10の制御部13の後述する学習部137により行われるが、これに限られない。モデルの学習処理及び再学習処理は、情報処理装置10以外の他の装置で行われ、情報処理装置10に提供されてもよい。なお、記憶部12の学習モデル123には、学習済みモデルに付随する重み等の情報も併せて格納される。
また、このモデルは、例えば、DNN(Deep Neural Network)、RNN(Recurrent Neural Network)、CNN(Convolutional Neural Network)、LSTM(Long Short-Term Memory)等のニューラルネットワークであるが、これに限られない。モデルは、決定木、SVM(Support Vector Machine)等の学習モデルであってもよい。また、モデルの学習方法は、例えば、勾配降下法、確率的勾配降下法、又は誤差逆伝播法であるが、これに限られない。
質問情報記憶部124は、ユーザに対して投げかける(表示する)質問や、当該質問の表示に用いるアイコンや文字列等を含む画像や文字列を記憶するデータベースである。
アクション情報記憶部125は、提示(表示)するアクションや、当該アクションの表示に用いるアイコン等の画像を記憶するデータベースである。このアクション情報記憶部125に記憶された情報は、後述する第3質問に対する回答の選択肢として表示される情報である。なお、本実施形態では、後述する第1回答に対応させて、アクション情報記憶部125から複数のアクション(第3質問に対する回答の選択肢)を抽出しているが、これに替えて、第2回答に対応させて複数のアクションを抽出してもよい。
次に、情報処理装置10の制御部13について説明する。この制御部13は、通信部11から受信したデータを処理して、その処理結果を通信部11へ与える処理を行う。制御部13は、画像受信部130、画像識別部131、画像選別部132、画像送信部133、質問送信部134、回答受信部135、アクション送信部136、及び学習部137を含む。本実施形態に係る制御部13は、記憶部12に記憶されたサーバプログラム122を読み出して実行することにより、上述の画像受信部130、画像識別部131、画像選別部132、画像送信部133、質問送信部134、回答受信部135、アクション送信部136、及び学習部137等が、ソフトウェア的な機能部として制御部13に実現される。
画像受信部130は、撮影装置20が送信する画像を通信部11にて受信する処理を行う。例えば、画像受信部130は、受信した画像に付されたデータに基づいて、画像の撮影日時、撮影した撮影装置20のIDや、撮影装置20が設置された施設のID等に対応付けて、画像を分類して記憶部12に一時的に記憶する。なお、画像受信部130によって記憶部12に一時的に記憶された画像は、後述する画像選別処理により選別がなされ、記憶部12の画像記憶部120に記憶して蓄積されるか、又は、記憶部12から消去される。
画像識別部131は、撮影装置20から取得した画像に対して、画像に写された人物を検出する処理、画像に写された人物が誰であるかを識別する処理、及び、画像に写された人物の表情を識別する処理等を行う。画像識別部131は、これらの処理結果に関する情報を画像にメタデータとして付してもよい。なお、本実施形態においては、これらの処理を情報処理装置10が行うものとするが、これに限るものではなく、これらの処理の一部又は全部を予め撮影装置20が行ってもよい。また、画像識別部131は、画像に写された人物の行動を識別する処理も行ってもよい。
画像識別部131は、例えば、予め機械学習がなされた学習モデルを用いて、画像から人物を検出する。学習モデルは、例えば画像のデータを入力として受け付け、この画像に含まれる人物が写された画像領域(を示す座標等のデータ)を出力するように予め機械学習がなされる。学習モデルは、例えば画像のデータと、この画像に含まれる人物が写された画像領域を示すデータとが対応付けられた教師データを用いて機械学習がなされる。
また、保育園、又は幼稚園等の施設にて撮影された画像を基に検出する対象の人物(対象者)を子供とする場合、子供が撮影された画像データを用いて教師データを作成することにより、子供の検出精度を高めることが期待できる。画像識別部131は、撮影装置20から取得した画像を学習モデルへ入力し、学習モデルが出力する人物の検出結果を取得することで、画像に写された人物を検出する処理を行う。なお画像識別部131は、画像から人物が検出されなかった場合、即ち画像に人物が写されていない場合、この画像を除去して後続の処理の対象から外す。
また、画像識別部131は、例えば画像に写された人物の顔の特徴量に基づいて、画像に写された人物が誰であるかを識別する処理を行ってもよい。この場合、画像識別部131は、例えば画像に写された人物の顔の特徴量を抽出し、ユーザDB121に登録された対象者の特徴量との比較を行う。
また、画像識別部131は、例えば、予め機械学習がなされた学習モデルを用いて、画像に写された人物の表情を識別する処理を行う。例えば、学習モデルは、人物が写された画像を入力として受け付けて、この画像に写された人物の表情が所定の表情である確信度を出力するように予め機械学習がなされる。所定の表情については予め定義し得るが、例えば、笑顔、怒り又は悲しみ等である。この所定の表情については後述する。画像識別部131は、例えば1種類の表情について確信度を出力する学習モデルを複数用意して複数種類の表情の識別を行ってもよく、また例えば複数種類の表情について確信度をそれぞれ出力する1つの学習モデルを用意して識別を行ってもよい。
学習モデルは、例えば画像のデータと、この画像に写された人物の顔の表情が所定の表情であるか否かを示すラベル(所定の表情であればラベル1、所定の表情以外であればラベル0など)とを対応付けた教師データを用いて機械学習がなされる。本実施形態において画像識別部131は、撮影装置20が撮影した画像を学習モデルへ入力し、学習モデルが出力する各表情の確信度を取得し、確信度が最も高い表情を画像に写された人物の表情と判断する。なお最も高い確信度が閾値を超えない場合には、画像識別部131は、画像に写された人物の表情が、学習モデルにて識別できるいずれの表情でもないと判断してよい。また、画像識別部131は、例えば予め機械学習がなされた学習モデルを用いて、画像に写された人物が行っている行動を識別する処理を行ってもよい。
画像選別部132は、画像識別部131による識別結果に基づいて、撮影装置20から取得した画像の中から、画像記憶部120に記憶して蓄積する画像を選別する処理を行う。画像選別部132は、各所定の表情について、所定数の画像を選定する。また、例えば画像選別部132は、スケジュールの各イベントについて、1人の利用者について所定数の画像を選別する。このときに画像選別部132は、例えば表情を識別する際に学習モデルが出力した確信度が高い画像を上位から所定数だけ選別することができる。また、例えば画像選別部132は、5分又は10分等の間隔で確信度が最も高い画像を選別してもよい。画像選別部132による画像選別の方法は、上記の方法に限らず、どのような方法が採用されてもよい。
画像送信部133は、画像記憶部120に記憶した画像をユーザの端末装置30へ送信する処理を行う。画像送信部133は、端末装置30から画像の送信要求と共に与えられる条件を取得し、取得した条件を満たす画像を画像記憶部120に記憶された複数の画像の中から抽出して、要求元の端末装置30へ送信する。端末装置30から与えられる条件は、例えば「ポジティブ(な感情)」等である。画像送信部133は、画像識別部131が各画像に付したメタデータに基づいて、端末装置30からの条件を満たす画像を抽出してもよい。
質問送信部134は、質問情報記憶部124に記憶した質問と、当該質問の表示に用いる文字列や文字列を含むアイコン等の画像とをユーザの端末装置30へ送信する処理を行う。質問送信部134は、端末装置30から、ユーザによる画像選択と共に与えられる条件を取得し、取得した条件を満たす質問と、当該質問の表示に用いる文字列や文字列を含むアイコン等の画像とを質問情報記憶部124の中から抽出して、要求元の端末装置30へ送信する。例えば、端末装置30によって所定の画像が選択された場合質問送信部134は、画像識別部131が各画像に付したメタデータ等に基づいて、端末装置30から質問(第1質問)と、当該質問に対する回答として、例えば、「ポジティブ」、及び「ネガティブ」等の感情を示す文字列を含むアイコンを選択肢として左右に表示する。例えば「ポジティブ(な感情)」の条件が与えられた場合、画像送信部133は、画像識別部131が各画像に付したメタデータ等に基づいて、端末装置30からポジティブな感情に関連する質問と、ポジティブな感情の表示に用いるアイコンとを抽出してもよい。
回答受信部135は、ユーザの端末装置30が送信する回答(後述する、第1回答,第2回答,第3回答)を通信部11にて受信する処理を行う。例えば、画像受信部130は、受信した回答と共に与えられる条件を取得する。
アクション送信部136は、アクション情報記憶部125に記憶したアクションと当該アクションの表示に用いるアイコン等の画像とをユーザの端末装置30へ送信する処理を行う。アクション送信部136は、端末装置30から質問(後述する第1質問)の回答(後述する第1回答)のための選択肢と共に与えられる条件を取得し、質問と共に、取得した条件を満たすアクションとアクションの表示に用いるアイコン等の画像とをアクション情報記憶部125に記憶された複数のアクションやアイコン等の画像の中から抽出して、要求元の端末装置30へ送信する。
端末装置30から与えられる条件が、例えば「ポジティブ」である場合、アクション送信部136は、アクション情報記憶部125から、質問と同時に、「ポジティブ」を詳細化した感情を示す選択肢を要求元の端末装置30へ送信する。一方、端末装置30から与えられる条件が、例えば「ネガティブ」である場合、アクション送信部136は、アクション情報記憶部125から、質問と同時に、「ネガティブ」を詳細化した感情を示す選択肢を要求元の端末装置30へ送信する。アクション送信部136により送信される質問と、受信される回答とを、それぞれ、第3質問、及び第3回答ともいう。
学習部137は、記憶部12に記憶される、上述した種々の学習モデル123に対して教師データを入力することにより、当該学習モデルを学習させる(訓練する)。
上述した通り、情報処理装置10は、画像受信部130~学習部137を備えるが、上記の構成に限定されず、例えば可搬型の記憶媒体に記憶された情報を読み取る読取部、操作入力を受け付ける入力部、又は、画像を表示する表示部等を含んでもよい。
次に、端末装置30の機能構成について説明する。図6は、端末装置30の機能構成の一例を示す図である。図6に例示するように、端末装置30は、通信部31と、記憶部32と、制御部33と、操作部34と、表示部35と、を備える。
通信部31は、通信I/F304により実現される。通信部31は、ネットワークNを介して、情報処理装置10や撮影装置20との間でデータの送受信を行う。
記憶部32は、メモリ302及びストレージ303により実現される。記憶部32は、ユーザプログラム320を備え、選択情報や受信した画像等を含む各種の情報を記憶してもよい。本実施形態において、ユーザプログラム320は遠隔のサーバ装置等により配信され、これを端末装置30が通信にて取得し、記憶部32に記憶する。ただしユーザプログラム320は、例えば、端末装置30の製造段階において記憶部32に書き込まれてもよい。例えば、ユーザプログラム320は、メモリカード、又は光ディスク等の記録媒体に記録されたユーザプログラム320を端末装置30が読み出して記憶部32に記憶してもよい。例えば、ユーザプログラム320は、記録媒体に記録されたものを書込装置が読み出して端末装置30の記憶部32に書き込んでもよい。また、ユーザプログラム320は、ネットワークを介した配信の態様で提供されてもよく、記録媒体に記録された態様で提供されてもよい。
制御部33は、プロセッサ301がユーザプログラム320等のプログラムを実行し、他のハードウェア構成と協働することにより実現される。制御部33は、端末装置30の動作全体を制御する。この制御部33は、表示制御部330と、条件取得部331と、を備える。
また、例えば、サーバプログラム122は、遠隔の他のサーバ装置等により配信されてもよく、この場合、情報処理装置10は、配信されるサーバプログラム122をネットワークNを介して取得してもよい。また、例えば、サーバプログラム122は、ディスクメディア109等の記録媒体に記録されたものをドライブ装置106等が読み出して情報処理装置10の記憶部12に書き込まれてもよい。
表示制御部330は、表示部35に対して種々の文字、又は画像等を表示するための制御を行う。本実施形態において表示制御部330は、後述のUI(User Interface)画面を表示部35に表示すると共に、このUI画面の所定領域に情報処理装置10から取得した画像を表示する。
条件取得部331は、表示制御部330がUI画面を表示部35に表示している際に、操作部34に対するユーザの操作に基づいて、UI画面に表示する一又は複数の画像に関する条件を取得する処理を行う。本実施形態に係る情報処理システム1では、表示する画像に関する条件として、選択された画像、回答、アイコン等の画像等を受け付けてもよい。条件取得部331は、取得した条件を付した画像の送信要求を情報処理装置10へ与える。この要求に応じて情報処理装置10は条件に適合する画像を端末装置30へ送信し、この画像を受信した端末装置30の表示制御部330が画像を表示する。
操作部34は、端末装置30を使用するユーザからの入力(操作)を受け付け、受け付けた入力を示す操作情報を制御部33に供給する。
表示部35は、上述の制御部33による制御にしたがって種々の画面表示を行う。
なお、図示を省略したが、端末装置30は、撮影機能等の他の機能を備えてもよい。
<UI画面:画像表示処理>
図7~図11は、本実施形態に係る端末装置30が表示するUI画面の一例を示す模式図である。なお、図7~図11に例示するUI画面は、施設の利用者である「ひなちゃん」の保護者が使用する端末装置30が表示するUI画面の一例である。図7は第1質問表示画面の一例を示す図であり、図8及び図9は第2質問表示画面の一例を示す図であり、図10及び図11は第3質問表示画面の一例を示す図である。また、図8及び図10は、後述する「ポジティブ」を選択した場合のUI画面の一例であり、図9及び図11は後述する「ネガティブ」を選択した場合のUI画面の一例である。
本実施形態に係る端末装置30が表示するUI画面は、日付表示領域151、主画像表示領域(第1の領域)152、質問表示領域(第2の領域)153、及び副画像表示領域(第3の領域)154等を含んで構成されている。
図7に例示するUI画面(第1質問表示画面)の次には、図8又は図9に例示するUI画面(第2質問表示画面)が表示される。図8に例示するUI画面は、図7に例示するUI画面において、「ポジティブ」が選択された場合に表示されるものである。一方、図9に例示するUI画面は、図7に例示するUI画面において、「ネガティブ」が選択された場合に表示されるものである。そして、図8に例示するUI画面の次には、図10に例示するUI画面(第3質問表示画面)が表示される。
この図10に例示する第3質問表示画面は、図7に例示するUI画面において「ポジティブ」が選択された場合に、図8に例示するUI画面の次に表示されるUI画面である。一方、図9に例示するUI画面の次に、図11に例示するUI画面(第3質問表示画面)が表示される。この図10に例示する第3質問表示画面は、図7に例示するUI画面において「ネガティブ」が選択された場合に、図9に例示するUI画面の次に表示されるものである。なお、図9に例示するUI画面の次には、図11に例示するUI画面(第3質問表示画面)が表示される。これらの図7~図11に例示するUI画面は、後述する質問表示領域153に表示される内容が異なっている。
日付表示領域151は、UI画面の上部に設けられており、本例では「2021年31日 Monday」のように年月日及び曜日が表示されている。本実施形態に係る情報処理システム1では、本サービ日付表示領域151を利用するためにユーザが端末装置30にてユーザプログラム320を起動した後、図示のUI画面が表示される。このときにUI画面の日付表示領域151には、例えば、今日の日付が表示される。
ユーザは施設の撮影装置20が今日(これまで)に撮影した画像を閲覧することができる。ユーザは、日付表示領域151に対するタッチ操作やクリック操作等を行うことによって、日付を変更することができる。端末装置30は、日付表示領域151に対する操作を受け付けた場合に、例えばカレンダー等を表示して日付の選択を受け付ける。日付の選択を受け付けた端末装置30は、この日付の画像を送信する要求を情報処理装置10へ与え、要求に応じて情報処理装置10から送信される画像を受信して主画像表示領域152を表示する。
主画像表示領域152は、UI画面において、日付表示領域151の下側に設けられており、本システムが自動的に抽出した1つの画像や、後述の副画像表示領域154にてユーザにより選択された1つの画像を表示する。本実施形態においては、主画像表示領域152に表示される画像を保護者と子供が一緒に閲覧することを想定している。
また、本実施形態に係る情報処理システム1が記憶及び表示する画像は、静止画像又は動画像のいずれであってもよく、静止画及び動画像が混在していてもよい。端末装置30は、主画像表示領域152に動画像を表示する場合、主画像表示領域152の中央又は下部に再生及び停止等の操作を受け付けるボタン、及び、再生時間を示すスライドバー等を表示する。そして、主画像表示領域152に動画像を表示する場合、再生前に主画像表示領域152に表示される画像は、当該動画像の最初のフレームでなくてもよく、当該動画像の特徴を最もよくあらわしている場面のフレームであってもよい。
質問表示領域153は、上述した主画像表示領域152の下側に設けられており、例えば、質問と共に、回答として、感情を示す文字列や、感情を示すアイコンや文字列を含む画像が選択肢として表示される。端末装置30は、質問表示領域153に表示されたいずれかの選択肢に対するタッチ操作やクリック操作等を受け付けることにより、感情の選択を受け付ける。感情の選択を受け付けた端末装置30は、この感情を示す文字列やアイコン等の画像を送信する要求を情報処理装置10へ与え、当該要求に応じて情報処理装置10から送信される画像を受信して表示する。
図7に示す第1質問表示画面に例示するように、質問表示領域153は、質問として、「ひなちゃんのこのときの気持ちはどっちかな?」が表示されている。同時に、回答として、「ポジティブ」、及び「ネガティブ」等の感情を示す文字列が選択肢として左右に表示されている。この上述した質問は第1質問、又は第1の質問といい、上述した選択肢は第1の選択候補、又は第1選択候補という。また、この第1の選択候補で選択し得る感情(「ポジティブ」、及び「ネガティブ」)を「第1の感情」という。端末装置30は、質問表示領域153に表示されたいずれかの選択肢に対するタッチ操作やクリック操作等を受け付けることにより、感情の選択を受け付ける。感情の選択を受け付けた端末装置30は、この感情を示す文字列やアイコン等の画像を送信する要求を情報処理装置10へ与え、当該要求に応じて情報処理装置10から送信される画像を受信して表示する。
本実施形態では、第1質問表示画面に表示する上述の質問は、保護者と子供とが主画像表示領域152に表示される画像を閲覧しながら回答することを想定している。具体的には、「ひなちゃんのこのときの気持ちはどっちかな?」のような質問は、保護者と子供とが主画像表示領域152に表示される画像を閲覧しながら、保護者が子供にその時の気持ちを問うものであるから、例えば、保護者が第1質問表示画面に表示される上述の質問をみながら、口頭で子供に問うこともできる。また、UI画面の質問の近くに、当該質問への理解を助けるコメント(例えば、「この時の気持ちを押してね。」)を添えることのできる領域を設けてもよい。
図8、及び図9に示す第2質問表示画面に例示するように、質問表示領域153は、質問として、「ひなちゃんのこのときの気持ちはどれかな?」が表示されている。図8に例示するUI画面では、この質問と共に、回答として、「幸せ」、「楽しい」、「満足」、及び「嬉しい」等のポジティブな感情を示す文字列と画像とが選択肢として左右に表示されている。また、図9に例示するUI画面では、この質問と共に、回答として、「怒っている」、「怖い」、「悲しい」、及び「つらい」等のネガティブな感情を示す文字列と画像とが選択肢として左右に表示されている。この上述した質問は第2質問、又は第2の質問といい、上述した選択肢は第2の選択候補、又は第2選択候補という。第2の質問は、第1の質問に関する回答を詳細に問うものである。また、この第3の選択候補で選択し得る感情を「第2の感情」という。
すなわち、図7に例示した第1質問表示画面において、例えば「ポジティブ」が選択された場合には、次に表示される第2質問表示画面(図8参照)において具体的にどういったポジティブの感情であるのかを問うような具体的な質問を表示する。一方、図7に例示した第1質問表示画面において、例えば「ネガティブ」が選択された場合には、次に表示される第2質問表示画面(図9参照)において具体的にどういったネガティブの感情であるのかを問うような具体的な質問を表示する。
これらの質問(第2質問)はいずれも、保護者が子供のその時の感情を具体的に掘り下げて問うものである。これらの質問についても同様に、本実施形態では、保護者と子供とが主画像表示領域152に表示される画像を閲覧しながら具体的な感情を回答することを想定している。例えば、保護者は、回答の選択肢(「怒っている」、「怖い」、「悲しい」、及び「つらい」)を見て、子供に対し、「そのときの気持ちは怒っているかな?怖かったかな?悲しかったかな?それとも、つらかったかな?」と口頭で子供に問うこともできる。なお、図示する第1質問や第2質問の文言は一例にすぎず、例えば、同等の趣旨を問うために別の文言を用いてもよいし、文言ではなく音声にて質問を与えてもよい。
このような具体的な感情を選択肢として用意することにより、回答する人物である子供や、質問を投げかける保護者の負荷が少なくなる。また、信州大学の『信州心理臨床紀要』に掲載された論文によれば、自身で思いついた言葉でなく選択肢をもとにして感情のラベリングすることにより、ストレス軽減の効果がある。本システムにおいて、ネガティブとポジティブのそれぞれについて、選択肢をもとにした感情のラベリングを行うことで、ストレス軽減につながる可能性がある。すなわち、ネガティブな経験をした子供に、その時の画像を用いて具体的な感情を選択してもらうことで、子供は保護者にストレスを軽減してもらったと感じられる可能性が高い。
このように、本システムでは、親子で閲覧できる画像と、その画像に対する質問や回答の選択肢を親子に与えることにより、会話を促すことが期待できる。
なお、本実施形態では、第1質問の回答として2つの選択肢を与えるものとしたが、これに限定されず、例えば、2つよりも多い選択肢を与えてもよい。また、本実施形態では、文字列を含むアイコンを選択肢として表示するものとしたが、これに替えて画像を表示するものとしてもよい。また、本実施形態では、第2質問の回答として4つの選択肢を与えるものとしたが、これに限定されず、例えば、4つ未満、又は4つよりも多い選択肢を与えてもよい。また、本実施形態では、感情を示すアイコンを含む画像を選択肢として表示するものとしたが、これに替えて文字列を表示するものとしてもよい。
また、図10及び図11に示す第3質問表示画面に例示するように、質問表示領域153は、質問として、「どのアクションをとりますか?」が表示されている。図10に例示するUI画面では、この質問と共に、回答として、「共感する」、「プロセスを褒める」、「理由を聞く」、及び「期待を実感させる」等のネガティブな場合に保護者の取り得るアクションを示す文字列が選択肢として左右に表示されている。この上述した質問は第3質問、又は第3の質問といい、上述した選択肢は第3の選択候補、又は第3選択候補という。また、この第3の選択候補で選択し得る感情を「第3の感情」という。この質問(第3質問)は、本システムから保護者への問いであり、第1回答及び第2回答を受信して得た子供の感情や画像に写った行動に対して、いかに振舞うかを問うものである。
このような具体的なアクションを選択肢として用意することにより、保護者の入力することの負荷が減少する。また、保護者がとり得るアクションを示すことで、どのようなアクションをとればよいか思いつかない保護者に対する助言となる。
副画像表示領域154は、質問表示領域153の下側に設けられており、情報処理装置10により抽出された一又は複数の画像を上下方向に並べて一覧表示する領域である。本実施形態において、副画像表示領域154に表示される画像はユーザの閲覧当日に撮影されたものであるものとするが、これに限られない。一覧表示される各画像は、元の画像を縮小したもの、いわゆるサムネイルであってよく、サムネイル画像の作成は情報処理装置10又は端末装置30のいずれにより行われてもよい。図示の例では、副画像表示領域154に2つの画像が左右に並べて一覧表示されている。
なお、これ以上の数の画像を副画像表示領域154に一覧表示する場合に、端末装置30は、例えば副画像表示領域154の側部にスクロールバー等を表示し、副画像表示領域154に対するスクロール操作を受け付けて、副画像表示領域154に表示する画像をスクロールさせて切り替えてもよい。また副画像表示領域154に一覧表示される複数の画像の表示順は、例えば撮影時刻に応じて決定してもよい。端末装置30は、副画像表示領域154に一覧表示された一又は複数の画像に対するタッチ操作又はクリック操作等を受け付けることにより、ユーザによる画像の選択を受け付ける。端末装置30は、副画像表示領域154にて選択された画像を、主画像表示領域152に表示する。
本実施形態に係る情報処理システム1では、端末装置30が表示するUI画面を利用してユーザが操作を行うことで、表示する画像の条件を設定することができる。例えばユーザは、日付表示領域151にて日付の条件を設定することができ、主画像表示領域152や質問表示領域153にて表示させる画像を選択することができ、質問表示領域153にて感情の条件を設定することができる。ユーザは、これら複数の条件を全て設定する必要はなく、適宜に一又は複数の条件を設定すればよい。
また、UI上部には、主画像表示領域152、及び副画像表示領域154に表示可能な枚数を表示する。図7の例では、「15枚」が表示可能な画像の枚数である。この表示可能な画像の枚数は、日付表示領域151に表示された日時に撮影された画像であり、情報処理装置10により抽出され、端末装置30に送信された画像の枚数である。
また、図示は省略するが、端末装置30は、イベント(カリキュラム)のスケジュールを表示する領域を設け、ユーザにより選択されたイベントに関連付けて表示させる画像を抽出してもよい。また、本実施形態に係る情報処理システム1では、所定のアクションをとった後のフィードバック、親子での会話、及び、対象者である子供の様子等をコメントとして入力することができる領域を設けてもよい。また、学習で表示させるアクションや画像を変更してもよい。また、本実施形態に係る情報処理システム1では、主画像表示領域152や副画像表示領域154に表示された画像に対してコメント等の情報を付すことができてもよい。
<情報処理装置10による画像記憶処理>
図12は、本実施形態に係る情報処理装置10の制御部13が行う画像記憶処理の手順を示すフローチャートである。この図12を用いて、情報処理装置10による画像記憶処理について説明する。
(ステップS101)
本実施形態に係る情報処理装置10の制御部13の画像受信部130は、施設に設置された撮影装置20が送信する画像を受信したか否かを判定する。撮影装置20から画像を受信した場合(ステップS101:YES)、処理はステップS102に進む。一方、画像を受信していない場合(ステップS101:NO)、画像受信部130は、撮影装置20から画像を受信するまで待機する。
(ステップS102)
制御部13の画像識別部131は、撮影装置20が撮影した画像に写された人物を検出する処理を行う。処理はステップS103に進む。
(ステップS103)
画像識別部131は、画像に人物が写っているか否かを判定する。画像に人物が写っている場合(ステップS103:YES)、処理はステップS104に進む。一方、画像に人物が写っていない場合(ステップS103:NO)、処理はステップS108に進む。
(ステップS104)
画像識別部131は、例えば、画像に写された人物の特徴量を取得し、ユーザDB121に記憶された特徴量に基づいて、画像に写された人物が誰であるかを識別する処理を行う。処理はステップS105に進む。
(ステップS105)
画像識別部131は、画像に写された人物の表情を識別する処理を行う。処理はステップS106に進む。
(ステップS106)
画像識別部131は、例えば、ステップS105にて識別した表情に基づいて画像のスコアリングを行い、スコアが閾値を超えるか否かを判定することによって、この画像を記憶するか否かを判定する。画像を記憶すると判定した場合(ステップS109:YES)、処理はステップS107に進む。一方、画像を記憶しないと判定した場合(ステップS109:NO)、処理はステップS108に進む。
(ステップS107)
画像選別部132は、画像を画像記憶部120に記憶し、処理を終了する。なお、本実施形態では、ステップS106において画像を記憶しないと判定した場合、画像を破棄して処理を終了するものとしたが、ステップS101へ処理を戻し、画像を受信するまで待機するように構成してもよい。
なお本実施形態においては、撮影装置20が撮影した画像から人物を検出する処理、画像に写された人物が誰であるかを識別する処理、及び、画像に写された人物の表情を識別する処理等を情報処理装置10が行うものとするが、これに限るものではない。これら複数の処理の一部又は全部は撮影装置20にて行われてもよい。例えば、撮影装置20は、自身が撮影した画像から人物を検出する処理を行い、人物が写されていない画像を情報処理装置10へ送信せずに破棄してもよい。また、例えば撮影装置20は画像に写された人物の表情の識別等の処理を行い、処理結果を画像に付して情報処理装置10へ送信してもよい。
<情報処理装置10による画像表示処理>
図13は、本実施形態に係る情報処理装置10が行う画像表示処理の手順を示すフローチャートである。この図13を用いて、情報処理装置10による画像表示処理について説明する。
(ステップS201)
本実施形態に係る制御部13の画像送信部133は、主画像表示領域152、及び副画像表示領域154に表示する画像を端末装置30に対して送信する。本実施形態において、起動直後にUI画面の主画像表示領域152、及び副画像表示領域154に表示する画像については、ランダムに抽出してもよいし、また、例えば、表情の識別(図12のステップS105参照)を行った後に、笑顔の表情の画像と泣いている表情の画像との合計枚数が同じ枚数になるようにランダムに抽出してもよく、また、笑顔の表情の写っている画像のみを抽出してもよい。また、端末装置30から画像の送信要求が与えられた場合には、画像送信部133は、送信要求に付された画像の条件を取得する。例えば、ユーザにより副画像表示領域154に表示される画像の中から特定の画像の送信要求が与えられた場合には、この画像を送信してもよい。また、ユーザにより日付表示領域151において対象の年月日が設定された場合には、この条件にて設定された画像を抽出し、端末装置30に対して送信する。そして、処理がステップS202に進む。
(ステップS202)
制御部13の質問送信部134は、第1質問を端末装置30に対して送信する。この第1質問とは、一例として、「ひなちゃんのこのときの気持ちはどっちかな?」である(図7参照)。同時に、質問送信部134は、「ポジティブ」、及び「ネガティブ」の選択肢(図7参照)を回答として端末装置30に対して送信する。そして、処理がステップS202に進む。
(ステップS203)
制御部13の回答受信部135、第1質問の回答である第1回答を端末装置30から受信した場合(ステップS203:YES)、処理がステップS204に進む。本例の場合、第1回答とは、「ポジティブ」という感情を示す情報と、「ネガティブ」という感情を示す情報のいずれかである。一方、第1回答を受信しなかった場合(ステップS203:NO)、第1回答を受信するまで待機する。なお、本実施形態では、第1回答を受信しなかった場合に第1回答を受信するまで待機するものとしたが、この場合、処置を終了してもよい。
(ステップS204)
質問送信部134は、第2質問を端末装置30に対して送信する。この第2質問とは、一例として、「ひなちゃんのこのときの気持ちはどれかな?」である(図8,図9参照)。同時に、質問送信部134は、具体的な気持ちを示す画像からなるの4つの選択肢を端末装置30に対して送信する。
本実施形態において、例えば、回答受信部135が、ステップS203に示した第1回答として、ユーザから「ポジティブ」を受信した場合、図8に例示した(ポジティブ選択時の)第2質問表示画面を表示させる。そのため、質問送信部134は、第2質問と同時に送信する第2回答のための選択肢として、「幸せ」、「楽しい」、「満足」、及び「嬉しい」等のポジティブな感情を示す文字列と画像とを端末装置30に対して送信する。
一方、本実施形態において、例えば、回答受信部135が、ステップS203に示す第1回答として、ユーザから「ネガティブ」を受信した場合、図9に例示した(ネガティブ選択時の)第2質問表示画面を表示させる。そのため、質問送信部134は、第2質問と同時に送信する第2回答のための選択肢として、「怒っている」、「怖い」、「悲しい」、及び「つらい」等のネガティブな感情を示す文字列と画像とを端末装置30に対して送信する。
(ステップS205)
回答受信部135が、第2質問の回答である第2回答を端末装置30から受信した場合(ステップS205:YES)、処理がステップS20に6進む。第2回答とは、「幸せ」、「楽しい」、「満足」、及び「嬉しい」等のポジティブな感情のうちのいずれか、又は、「怒っている」、「怖い」、「悲しい」、及び「つらい」等のネガティブな感情のうちのいずれかである。一方、第2回答を受信しなかった場合(ステップS205:NO)、第2回答を受信するまで待機するものとしたが、この場合、処理を終了してもよい。
(ステップS206)
質問送信部134は、第3質問を端末装置30に対して送信する。この第3質問とは、一例として、「どのアクションをとりますか?」である(図10,図11参照)。同時に、質問送信部134は、具体的なアクションを示す画像からなるの4つの選択肢を端末装置30に対して送信する。
本実施形態において、例えば、回答受信部135が、ステップS203に示した第1回答として、ユーザから「ネガティブ」を受信した場合、図10に例示した(ネガティブ選択時の)第3質問表示画面を表示させる。そのため、質問送信部134は、第3質問と同時に送信する第3回答のための選択肢として、「共感する」、「プロセスを褒める」、「理由を聞く」、及び「期待を実感させる」等のネガティブな場合に保護者の取り得るアクションを示す文字列を端末装置30に対して送信する。
一方、本実施形態において、例えば、回答受信部135が、ステップS203に示した第1回答として、ユーザから「ポジティブ」を受信した場合、図11に例示した(ポジティブ選択時の)第3質問表示画面を表示させる。そのため、質問送信部134は、第3質問と同時に送信する第3回答のための選択肢として、「共感する」、「詳しく話を聞く」、「褒める」、及び「嬉しい感情を伝える」等のポジティブな場合に保護者の取り得るアクションを示す文字列を端末装置30に対して送信する。
(ステップS207)
回答受信部135が、第3質問の回答である第3回答を端末装置30から受信した場合(ステップS207:YES)、処理が終了する。第3回答とは、「共感する」、「詳しく話を聞く」、「褒める」、及び「嬉しい感情を伝える」等のポジティブな感情に対して保護者がとり得るアクションのうちのいずれか、又は、「共感する」、「プロセスを褒める」、「理由を聞く」、及び「期待を実感させる」等のネガティブな感情に対して保護者がとり得るアクションのうちのいずれかである。一方、第3回答を受信しなかった場合(ステップS207:NO)、第3回答を受信するまで待機するものとしたが、この場合、処理を終了してもよい。
<端末装置30における画像表示処理>
図14は、本実施形態に係る端末装置30における画像表示処理の手順を示すフローチャートである。この図14を用いて、端末装置30における画像表示処理について説明する。
本実施形態において、ユーザは本サービスを利用するにあたり、アプリケーションプログラム等のユーザプログラム340を起動する。当該アプリケーションプログラムが起動されると、制御部33の表示制御部330は、端末装置30に、図7に例示したUI画面を表示する。なお、起動直後のUI画面は、主画像表示領域152、及び副画像表示領域154にランダムに画像が表示されているものであってもよいし、また、例えば、表情の識別(図12のステップS105参照)が行われた後に、笑顔の表情の画像と泣いている表情の画像との合計枚数が同じ枚数になるようにランダムに表示されるようにしてもよく、また、笑顔の表情のみが抽出されて表示されてもよい。また、主画像表示領域152、及び副画像表示領域154に画像が表示されていない状態であってもよい。
(ステップS301)
端末装置30の操作部34により、副画像表示領域154に一覧表示された画像の中から一つの画像が選択された場合、情報処理装置10の条件取得部331は、ユーザにより選択されたことを検知すると共に、端末装置30の表示制御部330は、選択された一の画像を主画像表示領域152に表示する。なお、このステップS301の処理はスキップしてもよく、その場合、本システムにより主画像表示領域152に画像が表示されたUI画像の表示を継続する。そして、処理がステップS302に進む。なお、続くステップS302~S304では、ユーザは、主画像表示領域152に表示された画像に対する質問について操作部34を用いて回答を行う。ステップS302~S304のそれぞれにおいて、表示される質問は異なり、これらの内容は以下に詳述する。
(ステップS302)
質問表示領域153に表示された第1質問に対して回答を行った場合(ステップS302:YES)、処理がステップS303に進む。具体的には、図7に例示したように、「ひなちゃんの気持ちはどっちかな?」という質問と同時に、「ポジティブ」か「ネガティブ」かを問う、第1回答のための選択肢が質問表示領域153に表示される。ここで、当該選択肢の中から操作部34によりいずれかの感情が選択されると、第1回答を送信したことになり処理がステップS303に進む。
一方、質問表示領域153に表示された第1質問に対して回答を行わなかった場合(ステップS302:NO)、処理が終了する。本実施形態において、回答を行わなかった場合に処理が終了するものとしたが、これに替えて、回答を行うまで待機しておいてもよいし、ステップS301に示す画像選択の処理に戻ってもよい。
(ステップS303)
質問表示領域153に表示された第2質問に対して回答を行った場合(ステップS303:YES)、処理がステップS304に進む。具体的には、図8に例示したように、「ひなちゃんの気持ちはどっちかな?」という質問と同時に、「幸せ」、「楽しい」、「満足」、及び「嬉しい」等のポジティブな感情のうちのいずれかを問う、第2回答のための選択肢が質問表示領域153に表示される。ここで、当該選択肢の中から操作部34によりいずれかの感情が選択されると、第2回答を送信したことになり処理がステップS304に進む。あるいは、図9に例示したように、「ひなちゃんの気持ちはどっちかな?」という質問と同時に、「怒っている」、「怖い」、「悲しい」、及び「つらい」等のネガティブな感情のうちのいずれかを問う、第2回答のための選択肢が質問表示領域153に表示される。
一方、質問表示領域153に表示された第2質問に対して回答を行わなかった場合(ステップS303:NO)、処理が終了する。本実施形態において、回答を行わなかった場合に処理が終了するものとしたが、これに替えて、回答を行うまで待機しておいてもよいし、ステップS301に示す画像選択の処理に戻ってもよい。
(ステップS304)
質問表示領域153に表示された第3質問に対して回答を行った場合(ステップS304:YES)、処理が終了する。具体的には、図10に例示したように、「どのアクションをとりますか?」という質問と同時に、「共感する」、「詳しく話を聞く」、「褒める」、及び「嬉しい感情を伝える」等のポジティブな場合に保護者の取り得るアクションのうちのいずれかを問う、第3回答のための選択肢が質問表示領域153に表示される。ここで、当該選択肢の中から操作部34によりいずれかの感情が選択されると、第3回答を送信したことになり処理が終了する。あるいは、図11に例示したように、「どのアクションをとりますか?」という質問と同時に、「共感する」、「プロセスを褒める」、「理由を聞く」、及び「期待を実感させる」等のネガティブな場合に保護者の取り得るアクションを問う、第3回答のための選択肢が質問表示領域153に表示される。
一方、質問表示領域153に表示された第3質問に対して回答を行わなかった場合(ステップS304:NO)、処理が終了する。本実施形態において、回答を行わなかった場合に処理が終了するものとしたが、これに替えて、回答を行うまで待機しておいてもよいし、ステップS301に示す画像選択の処理に戻ってもよい。
<実施の形態2>
上述した実施形態(実施の形態1ともいう)では、本システムにより抽出した画像、又は、ユーザにより選択された画像が主画像表示領域152に表示され、この主画像表示領域152に表示された画像に対して、質問表示領域153において質問が選択肢を表示してユーザが回答を行うものとした。実施の形態2では、本システムにより抽出した画像の中から、さらに本システム又はユーザプログラム340により所定の複数枚を選択し、ユーザがこれら複数枚の画像の中から、画像が撮影された時の気持ちを入力したい画像、又は、親子で話題に取り上げたい画像等を端末装置30の操作部34を用いて選択し、この選択された画像について質問や回答を行う。
また、上述した実施の形態1では、1つのUI画面上に、日付表示領域151、主画像表示領域152、質問表示領域153、及び副画像表示領域154を備えるものとしたが、実施の形態2では、各領域を1つのUI画面上に表示するものとする。なお、このようなUI画面上での領域の表示方法は一例にすぎず、複数の領域を組み合わせて表示させてもよい。
<第2の実施形態に係るUI画面:画像表示処理>
図15~図20は、本実施形態に係る端末装置30が表示するUI画面の一例を示す模式図である。なお、この図15~図20に例示するUI画面は、施設の利用者である「ひなちゃん」の保護者が使用する端末装置30が表示するUI画面の一例である。図15は選択画面の一例を示す図であり、図16は第1質問表示画面の一例を示す図であり、図17及び図18は第2質問表示画面の一例を示す図であり、図19及び図20は第3質問表示画面の一例を示す図である。また、図17及び図19は、「ポジティブ」を選択した場合のUI画面の一例であり、図18及び図20は「ネガティブ」を選択した場合のUI画面の一例である。図15~図20を用いて、第2の実施形態に係るUI画面について説明する。
なお、第2の実施形態に係る情報処理システム1では、予め、本システムにより、上述した画像のスコアリングを行うことにより所定枚数の画像が抽出され、端末装置30に送信される。
質問画面について図15を用いて説明する。この図15に例示するように、質問画面は日付表示領域151と、選択対象画像表示領域155と、を備える。この選択対象画像表示領域155は、UI画面の中央に設けられており、所定枚数の画像がユーザにより選択可能な態様で表示されている。図15に例示するUI画面(選択画面)では、3枚の画像が選択可能な態様で表示されている。本実施形態に係る情報処理システム1からは、選択対象画像表示領域155に表示可能な枚数、又は、選択対象画像表示領域155に表示可能な枚数を超えた枚数の画像が端末装置30に送られており、その中から本システムにより抽出された所定枚数の画像のみが、選択対象画像表示領域155に表示される。
また、図15の例では、例えば、選択対象画像表示領域155の下に設けられているインジケーターを選択することにより、選択対象画像表示領域155に表示される画像が選択対象画像表示領域155に切り替わる。図15に例示する選択可能な画像を表示する選択画面は一例であり、例えば、一度に選択可能な画像を表示させてもよい。また、インジケーターの個数は表示させる画面の個数と同一にしてもよい。
この選択対象画像表示領域155の下には、「選択する」のボタンが設けられており、このボタンを押すことにより、その際、選択対象画像表示領域155に表示されている画像が、次に表示されるUI画面に表示され、続く質問や回答の対象となる。
図15に例示した選択画面にて次のUI画面に表示される画像を選択すると、図16に例示する第1質問表示画面が表示される。第1質問表示画面について、図16を用いて説明する。
図16に例示するように、第1質問表示画面は、日付表示領域151と、主画像表示領域152と、質問表示領域153と、を備える。第1質問表示画面の質問表示領域153は、主画像表示領域152の下側に設けられており、例えば、質問と共に、回答として、感情を示す文字列や、感情を示すアイコンや文字列を含む画像が選択肢として表示される。端末装置30は、質問表示領域153に表示されたいずれかの選択肢に対するタッチ操作やクリック操作等を受け付けることにより、感情の選択を受け付ける。感情の選択を受け付けた端末装置30は、この感情を示す文字列やアイコン等の画像を送信する要求を情報処理装置10へ与え、当該要求に応じて情報処理装置10から送信される画像を受信して表示する。これらの第1質問やその回答、UI画面を構成する部品については第1の実施形態と同様であるため説明を省略する。
図16に例示した第1質問表示画面にて第1質問について回答(感情を選択)すると、図17又は図18に例示する第2質問表示画面が表示される。第2質問表示画面について、図17及び図18を用いて説明する。
図17及び図18に例示するように、第2質問表示画面は、日付表示領域151と、主画像表示領域152と、質問表示領域153と、を備える。第2質問表示画面の質問表示領域153は、質問として、「ひなちゃんのこのときの気持ちはどれかな?」が表示されている。図17に例示するUI画面では、この質問と共に、回答として、「幸せ」、「楽しい」、「満足」、及び「嬉しい」等のポジティブな感情を示す文字列と画像とが選択肢として左右に表示されている。また、図18に例示するUI画面では、この質問と共に、回答として、「怒っている」、「怖い」、「悲しい」、及び「つらい」等のネガティブな感情を示す文字列と画像とが選択肢として左右に表示されている。この上述した質問は第2質問、又は第2の質問といい、上述した選択肢は第2の選択候補、又は第2選択候補という。第2の質問は、第1の質問に関する回答を詳細に問うものである。また、この第3の選択候補で選択し得る感情を「第2の感情」という。これらの第2質問やその回答、UI画面を構成する部品については第1の実施形態と同様であるため説明を省略する。
図17又は図18に例示した第2質問表示画面にて第2質問について回答(具体的な感情を選択)すると、図19又は図20に例示する第3質問表示画面が表示される。第3質問表示画面について、図19及び図20を用いて説明する。
図19及び図20に例示するように、第3質問表示画面は、日付表示領域151と、主画像表示領域152と、質問表示領域153と、を備える。第3質問表示画面の質問表示領域153は、質問として、「どのアクションをとりますか?」が表示されている。図10に例示するUI画面では、この質問と共に、回答として、「共感する」、「プロセスを褒める」、「理由を聞く」、及び「期待を実感させる」等のネガティブな場合に保護者の取り得るアクションを示す文字列が選択肢として左右に表示されている。この上述した質問は第3質問、又は第3の質問といい、上述した選択肢は第3の選択候補、又は第3選択候補という。また、この第3の選択候補で選択し得る感情を「第3の感情」という。この質問(第3質問)は、本システムから保護者への問いであり、第1回答及び第2回答を受信して得た子供の感情や画像に写った行動に対して、いかに振舞うかを問うものである。これらの第3質問やその回答、UI画面を構成する部品については第1の実施形態と同様であるため説明を省略する。
図19又は図20に例示した第3質問表示画面にて第3質問について回答(具体的な感情を選択)すると、図21に例示する抽出画像表示画面が表示される。抽出画像表示画面について、図21を用いて説明する。
図21に例示するように、抽出画像表示画面は、日付表示領域151と、抽出画像表示領域156と、を備える。上述したように、予め本システムにより画像のスコアリングを行うことにより所定枚数の画像が抽出され、端末装置30に送信されたが、これら抽出された画像(図21の例では15枚の画像)が、抽出画像表示画面の抽出画像表示領域156に表示される。また、この抽出画像表示領域15の中から選択して親子の話題に取り上げたい画像がある場合などに、当該写真を選択することができてもよい。
実施の形態2に係る情報処理装置10による画像記憶処理は、実施の形態1の画像記憶処理(図12参照)と同様であるため、説明を省略する。
また、実施の形態2に係る情報処理装置10による画像表示処理について図13を用いて説明する。図13は、実施の形態1の画像表示処理を示したものであるが、ステップS201のみ処理の内容が異なるためこれについて説明する。実施の形態2のステップS201では、画像識別部131が画像のスコアリングを行うことにより所定枚数の画像が抽出され、これら抽出された所定枚数の画像が端末装置30に送信される。その際、抽出された所定枚数の画像の中から、本システムによりさらに抽出された所定枚数の画像のみが、選択対象画像表示領域155に表示される対象として送信される。これらの選択対象画像表示領域155に表示される対象である画像は、例えば、メタデータにある情報を付す等して判別可能な状態で端末装置30に送信される。図13に例示した他のステップについては第1の実施形態と同様であるため説明を省略する。
また、実施の形態2に係る端末装置30による画像表示処理について図22を用いて説明する。図22は、に係る端末装置30による画像表示処理を示したものであるが、ステップS302~S304は実施の形態1に係る端末装置30による画像表示処理(図14参照)と同様のため、説明を簡易化する。
図15に例示した選択画面の選択対象画像表示領域155には、所定枚数の画像がユーザにより選択可能な態様で表示されている。ステップS301では、次のUI画面で表示したい画像や、続く質問や回答の対象としたい(話題として取り上げた)画像を、例えばインジケーターを用いて切り替えて表示させ、「選択する」のボタンを押下すことで選択する。続くステップS302において、図16に例示した第1質問表示画面が表示され、ユーザが第1質問に対して、「ポジティブ」又は「ネガティブの」感情を回答すれば、ステップS303に進む。ステップS303では、図17又は図18に例示した第2質問表示画面が表示され、ユーザが第2質問に対して、具体的な感情を回答すれば、ステップS304に進む。続くステップS304では、図19又は図20に例示した第3質問表示画面が表示され、ユーザが第3質問に対してアクションを回答すれば、ステップS305に進む。
ステップS305では、図21に例示した抽出画像表示画面が表示される。予め本システムにより画像のスコアリングを行うことにより所定枚数の画像が抽出され、端末装置30に送信されたが、これら抽出された画像(図21の例では15枚の画像)が、抽出画像表示画面の抽出画像表示領域156に表示される。また、この抽出画像表示領域15の中から選択して親子の話題に取り上げたい画像がある場合などに、当該写真を選択することができてもよい。
<その他>
本実施形態において、1つのUI画面上に、日付表示領域151、主画像表示領域152、質問表示領域153、及び副画像表示領域154を備えるものとしたが、これらはそれぞれ、異なるUI画面上に備えられるものであってもよい。その場合、各領域を1つずつ備えたUI画面を用意し、例えば、日付表示領域151を備えた1つのUI画面を表示させた後に、主画像表示領域152を備えた1つのUI画面を表示させ、その次に、質問表示領域153を備えた1つのUI画面を表示させ、その次に、副画像表示領域154を備えた1つのUI画面を表示させてもよい。また、これらの領域151~154のうち、複数の領域を組み合わせて1つのUI画面を表示させてもよい。
また、本システムは保護者から第3回答、すなわち、具体的にとったアクションに関する情報を得るが、このアクションに関する情報と、例えば、その後の子供の笑顔が写っている写真の割合とを学習させ、その子供に適したアクションを示唆してもよい。また、例えば、本システムを利用する前後で子供に非認知能力を計測するためのテストを受講してもらい、そのテストのスコアと保護者がとったアクションとの関係を学習させ、その子供の非認知能力を高めるためのアクションを提示してもよい。
また、UI画面上に、本システム利用後の保護者の所感をテキストで入力可能な領域を設けてもよい。例えば、入力されたテキストの数が多く、子供の感情がポジティブである場合、親子の会話が盛り上がったものと判断してもよいし、入力されたテキストの数が少なく、子供の感情がネガティブである場合、親子の会話が盛り上がらず会話が進まなかったものと判断してもよい。そしてさらに上記のような学習を取り入れることにより、子供に適したアクションを提示してもよい。
また、主画像表示領域152や副画像表示領域154に表示させる画像をチューニングしてもよい。例えば、上記テストやテキスト入力により会話が進んだか否か、又は、非認知能力が向上したか否かがわかる場合、会話が進む画像をより表示させるように画像を抽出したり、非認知能力が向上するような画像を表示させるように画像を抽出してもよい。
撮影装置20が撮影した画像に写された人物を識別する際に、例えば画像中における人物の顔の大きさ又は向き等によっては識別精度が低下する可能性がある。そこで、情報処理装置10は、例えば、画像に写された人物を追跡する処理(トラッキング処理)を併用して、人物の識別を行ってもよい。
情報処理装置10は、画像に人物の顔が大きく写されている場合又は画像に写されている人物の顔が正面(撮影装置20)を向いている場合等のように識別精度が高いことが期待できる画像に基づく人物の識別結果を基準とし、この画像に続く一又は複数の画像に対してトラッキング処理を行う。トラッキング処理は、連続的に撮影された複数の画像において、対象物の移動を追跡する処理であり、例えばBoosting、MIL(Multiple Instance Learning)、TLD(Tracking Learning and Detection)、MedianFlow又はKCF(Kernelized Correlation Filters)等の手法が用いられ得る。情報処理装置10は、トラッキング処理により同じ人物が写されていると判断できる複数の画像に対して、基準となる画像における人物の識別結果(例えば識別の確信度等)を後続の画像についての識別結果とし、後続の画像に識別結果の情報を付して記憶してもよい。
<まとめ>
以上の構成の本実施形態に係る情報処理システム1では、情報処理装置10が条件に応じて抽出した一又は複数の画像を端末装置30がUI画面の副画像表示領域154に一覧表示し、一覧表示した一又は複数の画像から一の画像の選択を受け付け、選択された画像を主画像表示領域152に表示する。これにより、ユーザが定めた条件に適合する画像が複数存在する場合に、ユーザは複数の画像の中から所望の一の画像を容易に選択することができる。
また、本実施形態に係る情報処理システム1では、施設の利用者(子供)又はその関係者(保護者)が使用する端末装置30は、この利用者に関する画像を表示する。これにより情報処理システム1は、端末装置30の使用者に適切な画像表示を行うことが期待できる。
なお、本実施形態においては、撮影装置20を設置する施設を保育園又は幼稚園等とし、撮影装置20が施設を利用する子供の撮影を行う構成を示したが、施設は保育園又は幼稚園等に限らず、どのような施設であってもよい。施設は、屋内又は屋外のいずれのものであってもよい。また、施設には複数の撮影装置20が設置されてよく、複数の撮影装置20が情報処理装置10へ撮影した画像を送信してよい。また、条件に応じた画像の抽出を情報処理装置10が行うものとしたが、これに限るものではなく、端末装置30が行ってもよい。
また、図示したUI画面は一例であって、これに限るものではなく、各領域の配置及びデザイン等は適宜に変更され得る。また、本実施形態においては、UI画面の質問表示領域153にて表情の選択を受け付けたが、表情の選択に代えて、又は、表情の選択と共に、画像に写された人の行動を条件として選択可能としてもよい。
今回開示された実施形態は例示であり、制限的なものではない。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
また、本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
1 情報処理システム
10 情報処理装置
11 通信部
12 記憶部
13 制御部
20 撮影装置
30 端末装置
31 通信部
32 記憶部
33 制御部
34 操作部
35 表示部
101 プロセッサ
102 メモリ
103 ストレージ
104 通信I/F
105 入出力I/F
106 ドライブ装置
107 入力装置
108 出力装置
120 画像記憶部
121 ユーザDB
122 サーバプログラム
123 学習モデ
124 質問情報記憶部
125 アクション情報記憶部
130 画像受信部
131 画像識別部
132 画像選別部
133 画像送信部
134 質問送信部
135 回答受信部
136 アクション送信部
137 学習部
151 日付表示領域
152 主画像表示領域
153 質問表示領域
154 副画像表示領域
155 選択対象画像表示領域
156 抽出画像表示領域
301 プロセッサ
302 メモリ
303 ストレージ
304 通信I/F
305 入出力I/F
306 ドライブ装置
307 入力装置
308 出力装置
309 ディスクメディア
340 ユーザプログラム
330 表示処理部
331 条件取得部

Claims (11)

  1. 情報処理装置が、
    子供が利用する施設に設置された撮影装置が撮影した画像から、前記施設で過ごす前記子供の様子を撮影した画像を抽出して表示し、
    前記画像についての第1の質問と、前記第1の質問の回答として第1の選択候補と、を表示し、
    前記子供に対して前記子供の保護者がとり得るアクションを表示する、
    情報処理方法。
  2. 第1の感情に対応付けられた文字又は画像を前記第1の選択候補として複数表示し、
    前記第1の選択候補に基づいて前記第1の感情の選択を受け付ける、
    請求項1に記載の情報処理方法。
  3. 前記第1の選択候補と共に、当該第1の選択候補が選択された場合に表示可能な画像の枚数を表示する、
    請求項2に記載の情報処理方法。
  4. 前記画像についての第2の質問を表示し、
    第2の感情に対応付けられた文字又は画像を第2の選択候補として複数表示し、
    前記第2の選択候補に基づいて前記第2の感情の選択を受け付ける、
    請求項2に記載の情報処理方法。
  5. 前記第2の感情は前記第1の感情を具体化したものであり、
    前記第2の選択候補は前記第1の選択候補を具体化したものである、
    請求項4に記載の情報処理方法。
  6. 前記画像についての第3の質問を表示し、
    アクションに対応付けられた文字又は画像を第3の選択候補として複数表示し、
    前記第3の選択候補に基づいて前記アクションの選択を受け付ける、
    請求項1に記載の情報処理方法。
  7. 記第3の選択候補として前記保護者がとり得るアクションの選択候補を表示する、
    請求項6に記載の情報処理方法。
  8. 前記抽出された画像を表示する第1の領域と、
    前記画像についての第1の質問、第2の質問、又は第3の質問と、前記第1の選択候補、前記第2の選択候補、又は前記第3の選択候補と、を表示して前記子供に関する感情の選択を受け付ける第2の領域と、
    前記第1の領域にて抽出された画像と共に抽出された一又は複数の画像を一覧表示して一の画像の選択を受け付ける第3の領域と、
    を含む画面を表示部に表示する、
    請求項から請求項までのいずれか1つに記載の情報処理方法。
  9. 前記施設を利用する子供又は当該子供保護者が使用する情報処理装置は、当該子供に係る画像を表示し、
    第1の質問、及び第2の質問は前記子供の感情を選択するものであり、
    第3の質問は前記子供に対して前記子供の保護者がとり得るアクションを選択するものである、
    請求項1から請求項7までのいずれか1つに記載の情報処理方法。
  10. コンピュータに、
    子供が利用する施設に設置された撮影装置が撮影した画像から、前記施設で過ごす前記子供の様子を撮影した画像を抽出して表示する処理と、
    前記画像についての第1の質問と、前記第1の質問の回答として第1の選択候補と、を表示する処理と、
    前記子供に対して前記子供の保護者がとり得るアクションを表示する処理と、
    をコンピュータに実行させるためのプログラム。
  11. 施設に設置された撮影装置が撮影した画像を取得する画像受信部と、
    前記画像受信部が取得した画像に写された子供を識別する識別部と、
    前記子供が利用する施設に設置された撮影装置が撮影した画像から、前記施設で過ごす前記子供の様子を撮影した画像を抽出して端末装置へ送信し、前記画像についての第1の質問と、前記第1の質問の回答として第1の選択候補と、を前記端末装置へ送信する通信部と、
    を備える、情報処理装置。

JP2021060980A 2021-03-31 2021-03-31 情報処理方法、プログラム、及び情報処理装置 Active JP7064159B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021060980A JP7064159B1 (ja) 2021-03-31 2021-03-31 情報処理方法、プログラム、及び情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021060980A JP7064159B1 (ja) 2021-03-31 2021-03-31 情報処理方法、プログラム、及び情報処理装置

Publications (2)

Publication Number Publication Date
JP7064159B1 true JP7064159B1 (ja) 2022-05-10
JP2022156996A JP2022156996A (ja) 2022-10-14

Family

ID=81535284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021060980A Active JP7064159B1 (ja) 2021-03-31 2021-03-31 情報処理方法、プログラム、及び情報処理装置

Country Status (1)

Country Link
JP (1) JP7064159B1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4608655B2 (ja) 2005-05-24 2011-01-12 国立大学法人広島大学 学習支援装置、学習支援装置の制御方法、学習支援装置の制御プログラム、及びコンピュータ読み取り可能な記録媒体
JP2012089909A (ja) 2010-10-15 2012-05-10 Sony Corp 情報処理装置、同期方法およびプログラム
JP2018156453A (ja) 2017-03-17 2018-10-04 グローリー株式会社 画像提供システム、画像提供方法、および画像提供プログラム
US20210043106A1 (en) 2019-08-08 2021-02-11 COGNITIVEBOTICS Technologies Pvt. Ltd. Technology based learning platform for persons having autism

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4608655B2 (ja) 2005-05-24 2011-01-12 国立大学法人広島大学 学習支援装置、学習支援装置の制御方法、学習支援装置の制御プログラム、及びコンピュータ読み取り可能な記録媒体
JP2012089909A (ja) 2010-10-15 2012-05-10 Sony Corp 情報処理装置、同期方法およびプログラム
JP2018156453A (ja) 2017-03-17 2018-10-04 グローリー株式会社 画像提供システム、画像提供方法、および画像提供プログラム
US20210043106A1 (en) 2019-08-08 2021-02-11 COGNITIVEBOTICS Technologies Pvt. Ltd. Technology based learning platform for persons having autism

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
[Online]kidsly 保育園向けサービス,2019年12月23日,https://web.archive.org/web/20191223071312/https://kidsly.jp/c/app/,[2021年6月14日検索]

Also Published As

Publication number Publication date
JP2022156996A (ja) 2022-10-14

Similar Documents

Publication Publication Date Title
US20240054117A1 (en) Artificial intelligence platform with improved conversational ability and personality development
CN107257338B (zh) 媒体数据处理方法、装置及存储介质
CN109074117B (zh) 提供基于情绪的认知助理系统、方法及计算器可读取媒体
Kane et al. What we talk about: designing a context-aware communication tool for people with aphasia
KR101880159B1 (ko) 스마트폰 어플리케이션 연계 그림 심리검사 전용 검사지 및 그 검사지와 스마트폰 어플리케이션을 이용한 그림 심리검사 서비스 제공시스템과 방법
JP7070652B2 (ja) 情報処理システム、情報処理方法、およびプログラム
WO2017070496A1 (en) Automatic test personalization
CN106464758A (zh) 利用用户信号来发起通信
TW201104644A (en) Interactive information system, interactive information method, and computer readable medium thereof
US20160112364A1 (en) Systems and Methods for Mobile Matchmaking Requiring Users to Chat before Successively Revealing Identities
JP2013097311A (ja) 学習支援装置、学習支援方法および学習支援プログラム
US20180317831A1 (en) Diagnostic tool for assessing neurodevelopmental conditions or disorders
US20170185365A1 (en) System and method for screen sharing
JP6649005B2 (ja) ロボット撮影システムおよび画像管理方法
CN111369275A (zh) 识别和描述群体方法、协调装置及计算机可读取存储介质
Kang et al. Momentmeld: Ai-augmented mobile photographic memento towards mutually stimulatory inter-generational interaction
JP7064159B1 (ja) 情報処理方法、プログラム、及び情報処理装置
KR101912554B1 (ko) 동화 창작 및 공유 시스템
Foley et al. Bridging the gap: Design for intergenerational engagement in dementia care
Syeda et al. Photo Alive!: elderly oriented social communication service
JP7371770B2 (ja) アバター制御プログラム、アバター制御方法および情報処理装置
JP7141921B2 (ja) 絵本の読み聞かせシステムおよびプログラム
JP6758351B2 (ja) 画像管理システムおよび画像管理方法
Neo et al. Augmented reality emotion recognition for autism spectrum disorder children
KR101870507B1 (ko) 오답노트를 제공하는 데이터 활용시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210331

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220404

R150 Certificate of patent or registration of utility model

Ref document number: 7064159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150