WO2024062913A1 - 画像処理装置、画像処理装置の作動方法、および画像処理装置の作動プログラム - Google Patents
画像処理装置、画像処理装置の作動方法、および画像処理装置の作動プログラム Download PDFInfo
- Publication number
- WO2024062913A1 WO2024062913A1 PCT/JP2023/032376 JP2023032376W WO2024062913A1 WO 2024062913 A1 WO2024062913 A1 WO 2024062913A1 JP 2023032376 W JP2023032376 W JP 2023032376W WO 2024062913 A1 WO2024062913 A1 WO 2024062913A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- emotion
- user
- time
- processing device
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 89
- 238000000034 method Methods 0.000 title claims description 16
- 230000008451 emotion Effects 0.000 claims abstract description 380
- 238000004458 analytical method Methods 0.000 claims description 49
- 230000004044 response Effects 0.000 claims description 23
- 230000000694 effects Effects 0.000 claims description 21
- 230000008921 facial expression Effects 0.000 claims description 18
- 230000006855 networking Effects 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 12
- 238000010801 machine learning Methods 0.000 claims description 9
- 238000010191 image analysis Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 3
- 238000003860 storage Methods 0.000 description 88
- 238000007726 management method Methods 0.000 description 52
- 230000002996 emotional effect Effects 0.000 description 35
- 238000010586 diagram Methods 0.000 description 31
- 230000006870 function Effects 0.000 description 28
- 238000009826 distribution Methods 0.000 description 23
- 238000005516 engineering process Methods 0.000 description 23
- 238000000605 extraction Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 230000036760 body temperature Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000036651 mood Effects 0.000 description 3
- 206010005746 Blood pressure fluctuation Diseases 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 238000011017 operating method Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 235000015243 ice cream Nutrition 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- GGCZERPQGJTIQP-UHFFFAOYSA-N sodium;9,10-dioxoanthracene-2-sulfonic acid Chemical compound [Na+].C1=CC=C2C(=O)C3=CC(S(=O)(=O)O)=CC=C3C(=O)C2=C1 GGCZERPQGJTIQP-UHFFFAOYSA-N 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/387—Composing, repositioning or otherwise geometrically modifying originals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/92—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
Abstract
プロセッサを備え、プロセッサは、複数の時点における画像に対するユーザの感情の入力を受け付け、複数の時点における感情の情報と画像とを関連付けて記憶する、画像処理装置。
Description
本開示の技術は、画像処理装置、画像処理装置の作動方法、および画像処理装置の作動プログラムに関する。
特開2017-092528号公報には、撮影部と、表示部と、選択受付部と、撮影指示部と、関連付け部とを備える撮影装置が記載されている。表示部は、互いに異なる気分を表す複数の画像要素を表示する。選択受付部は、表示部により表示された画像要素の中から、ユーザの選択操作を受け付ける。撮影指示部は、ユーザの操作に応じて、撮影部に画像を撮影させる。関連付け部は、撮影指示部が画像を撮影させたタイミングを基準として既定の期間内に、選択受付部により画像要素の選択操作を受け付けた場合に、選択された画像要素に関連付けられた気分を表わす気分情報と、撮影部により撮影された画像データとを互いに関連付ける。
本開示の技術に係る1つの実施形態は、画像に対するユーザの感情をより的確に把握することが可能な画像処理装置、画像処理装置の作動方法、および画像処理装置の作動プログラムを提供する。
本開示の画像処理装置は、プロセッサを備え、プロセッサは、複数の時点における画像に対するユーザの感情の入力を受け付け、複数の時点における感情の情報と画像とを関連付けて記憶する。
画像はインスタントフイルムに印刷出力された印刷画像であり、複数の時点は、印刷画像を撮影する時点、インスタントフイルムをデジタル画像として記憶する時点、およびインスタントフイルムのデジタル画像をソーシャルネットワーキングサービスに投稿する時点の中から選択された組み合わせであることが好ましい。
プロセッサは、画像を表示するときに、感情の情報に応じた表示エフェクトをかけることが好ましい。
画像は、感情の情報を検索キーワードとして検索することが可能であることが好ましい。
プロセッサは、画像の入力に応じて感情の情報を出力する機械学習モデルを用いて感情を推定し、推定した感情をユーザに表示することが好ましい。
関連付けて記憶された感情の情報と画像とが、機械学習モデルの教師データとして用いられることが好ましい。
画像はインスタントフイルムに印刷出力された印刷画像であり、複数の時点は、印刷画像を撮影する時点を含み、プロセッサは、インスタントフイルムのデジタル画像を取得し、デジタル画像を画像解析することで、ユーザがインスタントフイルムに実記したテキストを読み取り、テキストの自然言語解析を行い、自然言語解析の結果にしたがって、印刷画像を撮影する時点における感情を推定し、推定した感情をユーザに表示することが好ましい。
画像はインスタントフイルムに印刷出力された印刷画像であり、複数の時点は、インスタントフイルムのデジタル画像をソーシャルネットワーキングサービスに投稿する時点を含み、プロセッサは、デジタル画像をソーシャルネットワーキングサービスに投稿するときにユーザが入力したテキストを取得し、テキストの自然言語解析を行い、自然言語解析の結果にしたがって、デジタル画像をソーシャルネットワーキングサービスに投稿する時点における感情を推定し、推定した感情をユーザに表示することが好ましい。
プロセッサは、ユーザが身に付けたウェアラブルデバイスからのユーザの状態情報を取得し、状態情報に基づいて感情を推定し、推定した感情をユーザに表示することが好ましい。
プロセッサは、画像に写る人物の表情を検出し、表情の検出結果に基づいて感情を推定し、推定した感情をユーザに表示することが好ましい。
本開示の画像処理装置の作動方法は、複数の時点における画像に対するユーザの感情の入力を受け付けること、並びに、複数の時点における感情の情報と画像とを関連付けて記憶すること、を含む。
本開示の画像処理装置の作動プログラムは、複数の時点における画像に対するユーザの感情の入力を受け付けること、並びに、複数の時点における感情の情報と画像とを関連付けて記憶すること、を含む処理をコンピュータに実行させる。
一例として図1に示すように、ユーザUはインスタントカメラ10で被写体を撮影し、インスタントフイルム11に被写体の画像を印刷出力させる。インスタントフイルム11は、銀塩式、感熱式のいずれでもよい。図1においては、被写体としてアイスクリームパフェを例示している。以下、インスタントフイルム11に印刷出力された画像を印刷画像12と表記する。
印刷画像12は、インスタントフイルム11の略中心部に配されている。そして、印刷画像12のサイズは、インスタントフイルム11よりも一回り小さい。このため、インスタントフイルム11の縁と印刷画像12の縁との間には余白が設けられている。特に、インスタントフイルム11の下部には、比較的大きな余白13が設けられている。余白13には、油性ペン等でユーザUがテキスト14を書き込むことが可能である。図1においては、テキスト14として「delicious!」が書き込まれた例を示している。
ユーザUは、ユーザ端末15のカメラ機能でインスタントフイルム11を撮影し、インスタントフイルム11をデジタル画像として記憶する。ユーザ端末15は、カメラ機能、画像再生表示機能、および画像送受信機能等を有する機器である。ユーザ端末15は、具体的にはスマートフォン、タブレット端末、コンパクトデジタルカメラ、ミラーレス一眼カメラ、あるいはノート型のパーソナルコンピュータ等である。ユーザ端末15は、本開示の技術に係る「画像処理装置」の一例である。
ユーザ端末15は、ネットワーク16を介して画像管理サーバ17と相互通信可能に接続されている。ネットワーク16は、例えばインターネットまたは公衆通信網等のWAN(Wide Area Network)である。ユーザ端末15は印刷画像12を画像管理サーバ17に送信(アップロード)する。また、ユーザ端末15は画像管理サーバ17からの印刷画像12を受信(ダウンロード)する。
画像管理サーバ17は、例えばサーバコンピュータ、ワークステーション等であり、ユーザ端末15と併せて、本開示の技術に係る「画像処理装置」の一例である。このように、本開示の技術に係る「画像処理装置」は、複数の装置に跨って実現されてもよい。画像管理サーバ17には、ネットワーク16を介して複数のユーザUの複数のユーザ端末15が接続されている。
一例として図2に示すように、ユーザ端末15および画像管理サーバ17を構成するコンピュータは、基本的には同じ構成であり、ストレージ20、メモリ21、CPU(Central Processing Unit)22、通信部23、ディスプレイ24、および入力デバイス25を備えている。これらはバスライン26を介して相互接続されている。
ストレージ20は、ユーザ端末15および画像管理サーバ17を構成するコンピュータに内蔵、またはケーブル、ネットワークを通じて接続されたハードディスクドライブである。もしくはストレージ20は、ハードディスクドライブを複数台連装したディスクアレイである。ストレージ20には、オペレーティングシステム等の制御プログラム、各種アプリケーションプログラム(以下、AP(Application Program)と略す)、およびこれらのプログラムに付随する各種データ等が記憶されている。なお、ハードディスクドライブに代えてソリッドステートドライブを用いてもよい。
メモリ21は、CPU22が処理を実行するためのワークメモリである。CPU22は、ストレージ20に記憶されたプログラムをメモリ21へロードして、プログラムにしたがった処理を実行する。これによりCPU22はコンピュータの各部を統括的に制御する。CPU22は、本開示の技術に係る「プロセッサ」の一例である。なお、メモリ21は、CPU22に内蔵されていてもよい。
通信部23は、ネットワーク16等を介した各種情報の伝送制御を行うネットワークインターフェースである。ディスプレイ24は各種画面を表示する。各種画面にはGUI(Graphical User Interface)による操作機能が備えられる。ユーザ端末15および画像管理サーバ17を構成するコンピュータは、各種画面を通じて、入力デバイス25からの操作指示の入力を受け付ける。入力デバイス25は、キーボード、マウス、タッチパネル、および音声入力用のマイク等である。
なお、以下の説明では、ユーザ端末15を構成するコンピュータの各部(ストレージ20、CPU22、ディスプレイ24、および入力デバイス25)には添え字の「A」を、画像管理サーバ17を構成するコンピュータの各部(ストレージ20およびCPU22)には添え字の「B」をそれぞれ符号に付して区別する。
一例として図3に示すように、ユーザ端末15のストレージ20Aには、印刷画像AP30が記憶されている。印刷画像AP30は、ユーザUによってユーザ端末15にインストールされる。印刷画像AP30は、ユーザ端末15を構成するコンピュータを、本開示の技術に係る「画像処理装置」として機能させるためのAPである。すなわち、印刷画像AP30は、本開示の技術に係る「画像処理装置の作動プログラム」の一例である。印刷画像AP30が起動された場合、ユーザ端末15のCPU22Aは、メモリ21等と協働して、ブラウザ制御部32として機能する。ブラウザ制御部32は、印刷画像AP30の専用のウェブブラウザの動作を制御する。
ブラウザ制御部32は各種画面を生成する。ブラウザ制御部32は、生成した各種画面をディスプレイ24Aに表示する。また、ブラウザ制御部32は、各種画面を通じて、ユーザUによって入力デバイス25Aから入力される様々な操作指示を受け付ける。ブラウザ制御部32は、操作指示に応じた様々な要求を画像管理サーバ17に送信する。
一例として図4に示すように、ブラウザ制御部32は、ユーザUの指示に応じて、記憶指示画面35をディスプレイ24Aに表示する。記憶指示画面35は、インスタントフイルム11、ひいては印刷画像12をデジタル画像として記憶する記憶指示を行うための画面である。記憶指示画面35には、デジタル画像として記憶したいインスタントフイルム11を収める枠36、メッセージ37、および記憶指示ボタン38が表示されている。メッセージ37は、枠36内にデジタル画像として記憶したいインスタントフイルム11を収め、記憶指示ボタン38を押すことをユーザUに促す内容である。記憶指示ボタン38は、いわばシャッターボタンとして機能する。
ユーザUは、メッセージ37にしたがって、枠36内にデジタル画像として記憶したいインスタントフイルム11を収め、記憶指示ボタン38を押す。記憶指示ボタン38が押された場合、ブラウザ制御部32は、記憶指示画面35の表示を図5に示すように遷移させる。
一例として図5に示すように、記憶指示ボタン38が押された後の記憶指示画面35には、メッセージ40、感情入力メニュー41A、感情入力メニュー41B、およびOKボタン42が設けられる。メッセージ40は、印刷画像12を撮影する時点(以下、撮影時と表記する)と、インスタントフイルム11(印刷画像12)をデジタル画像として記憶する時点(以下、記憶時と表記する)における印刷画像12に対する感情を入力し、OKボタン42を押すことをユーザUに促す内容である。感情入力メニュー41Aは、撮影時における印刷画像12に対するユーザUの感情を入力するためのGUIである。感情入力メニュー41Bは、記憶時における印刷画像12に対するユーザUの感情を入力するためのGUIである。以下、感情入力メニュー41Aおよび41Bを特に区別する必要がない場合は、感情入力メニュー41と表記する場合がある。
一例として図6に示すように、感情入力メニュー41Aは、感情として「喜び」を表す顔型43A、感情として「怒り」を表す顔型43B、感情として「哀しい」を表す顔型43C、および感情として「楽しい」を表す顔型43Dを有する。顔型43A~43Dの上部には、各顔型43A~43Dで表される感情を示す文字が表示される。以下、顔型43A~43Dを特に区別する必要がない場合は、顔型43と表記する場合がある。
顔型43A~43Dは、図5で示した状態において、感情入力メニュー41Aが選択された場合に表示される。顔型43A~43Dは、いずれか1つを選択可能である。ユーザUは、顔型43A~43Dのうち、撮影時における印刷画像12に対する感情として相応しい1つの顔型43を選択する。図6においては、ハッチングで示すように、感情として「喜び」を表す顔型43Aが選択された例を示している。なお、感情入力メニュー41Bは、感情入力メニュー41Aと同じ構成であるため、図示および説明を省略する。
一例として図7に示すように、ユーザUは、メッセージ40にしたがって、感情入力メニュー41Aおよび41Bにて所望の感情を入力した後、OKボタン42を押す。OKボタン42が押された場合、ブラウザ制御部32は感情情報45Aを生成する。感情情報45Aは、感情入力メニュー41Aおよび41Bにて入力された撮影時および記憶時の感情を含む。また、感情情報45Aは、印刷画像12を一意に識別するための画像ID(Identification Data)を含む。図7においては、感情入力メニュー41Aおよび41Bにていずれも「喜び」を表す顔型43Aが選択され、撮影時および記憶時の感情として「喜び」が登録された感情情報45Aを生成する例を示している。
一例として図8に示すように、ブラウザ制御部32は、ユーザUの指示に応じて、画像再生表示画面50をディスプレイ24Aに表示する。画像再生表示画面50は、デジタル画像として記憶されたインスタントフイルム11、ひいては印刷画像12を再生表示する画面である。ブラウザ制御部32は、感情情報45Aに応じた表示エフェクトを印刷画像12にかける。図8においては、図7で示した撮影時および記憶時の感情として「喜び」が登録された感情情報45Aの例を示している。この場合、ブラウザ制御部32は、表示エフェクトとして、星マーク51を印刷画像12に複数表示する。
画像再生表示画面50には、デジタル画像として記憶されたインスタントフイルム11を、アプリケーションプログラムを通じてソーシャルネットワーキングサービス(以下、SNS(Social Networking Service)と表記する)に投稿するための投稿ボタン52が設けられている。投稿ボタン52が押された場合、ブラウザ制御部32は、画像再生表示画面50の表示を図9に示すように遷移させる。
一例として図9に示すように、投稿ボタン52が押された後の画像再生表示画面50には、各種SNSのアプリケーションプログラムのアイコン55、メッセージ56、感情入力メニュー41C、およびOKボタン57が設けられる。メッセージ56は、インスタントフイルム11のデジタル画像をSNSに投稿する時点(以下、投稿時と表記する)における印刷画像12に対する感情を入力し、OKボタン57を押すことをユーザUに促す内容である。感情入力メニュー41Cは、投稿時における印刷画像12に対するユーザUの感情を入力するためのGUIである。感情入力メニュー41Cは、感情入力メニュー41A等と同じ構成であるため、図示および説明を省略する。
一例として図10に示すように、ユーザUは、アイコン55を選択し、かつ、メッセージ56にしたがって、感情入力メニュー41Cにて所望の感情を入力した後、OKボタン57を押す。OKボタン57が押された場合、ブラウザ制御部32は感情情報45Bを生成する。感情情報45Bは、感情入力メニュー41Cにて入力された投稿時の感情、および画像IDを含む。図10においては、感情入力メニュー41Cにて「楽しい」を表す顔型43Dが選択され、投稿時の感情として「楽しい」が登録された感情情報45Bを生成する例を示している。以下、感情情報45Aおよび45Bを特に区別する必要がない場合は、感情情報45と表記する場合がある。
図8および図9においては、感情が「喜び」の場合の表示エフェクトを示したが、他の感情の場合の表示エフェクトは、一例として図11~図13に示すようになる。すなわち、感情が「怒り」の場合、図11に示すように、ブラウザ制御部32は、表示エフェクトとして、こめかみの血管、いわゆる青筋を模した怒りマーク60を印刷画像12に複数表示する。感情が「哀しい」の場合、図12に示すように、ブラウザ制御部32は、表示エフェクトとして、涙の雫を模した涙マーク61を印刷画像12に複数表示する。感情が「楽しい」の場合、図13に示すように、ブラウザ制御部32は、表示エフェクトとして、音符マーク62を印刷画像12に複数表示する。
ブラウザ制御部32は、インスタントフイルム11のデジタル画像をSNSに投稿した後に、画像再生表示画面50において印刷画像12を再生表示する場合も、印刷画像12に対して表示エフェクトを行う。ブラウザ制御部32は、撮影時、記憶時、および投稿時のうち、選択数が多い感情に合わせて表示エフェクトを行う。例えば、撮影時および記憶時における感情がともに「喜び」で、投稿時における感情が「楽しい」であった場合、ブラウザ制御部32は、「喜び」に合わせた星マーク51による表示エフェクトを行う。撮影時および記憶時における感情が異なる場合、または撮影時、記憶時、および投稿時における感情が異なる場合は、ブラウザ制御部32は、より新しい時点における感情に合わせて表示エフェクトを行う。なお、星マーク51を明滅させる、怒りマーク60の大きさを変える、涙マーク61を上下に流す、あるいは音符マーク62の角度を変える等、アニメーションで表示してもよい。
一例として図14に示すように、画像管理サーバ17のストレージ20Bには、作動プログラム70が記憶されている。作動プログラム70は、画像管理サーバ17を構成するコンピュータを、本開示の技術に係る「画像処理装置」として機能させるためのAPである。すなわち、作動プログラム70は、印刷画像AP30と同じく、本開示の技術に係る「画像処理装置の作動プログラム」の一例である。ストレージ20Bには、画像データベース(以下、DB(Data Base)と表記する)71も記憶されている。また、図示は省略したが、ストレージ20Bには、ユーザUを一意に識別するためのユーザIDと、ユーザUが設定したパスワードと、ユーザ端末15を一意に識別するための端末IDとが、ユーザUのアカウント情報として記憶されている。
作動プログラム70が起動されると、画像管理サーバ17のCPU22Bは、メモリ21等と協働して、受付部75、リードライト(以下、RW(Read Write)と表記する)制御部76、および配信制御部77として機能する。
受付部75は、ユーザ端末15からの各種要求を受け付ける。受付部75は、各種要求をRW制御部76および配信制御部77に出力する。RW制御部76は、ストレージ20Bへの各種データの記憶、およびストレージ20Bからの各種データの読み出しを制御する。RW制御部76は、特に、画像DB71への印刷画像12等の記憶、および画像DB71からの印刷画像12等の読み出しを制御する。配信制御部77は、ユーザ端末15への各種データの配信を制御する。
一例として図15に示すように、画像DB71には、ユーザU毎に記憶領域80が設けられている。記憶領域80にはユーザIDが登録されている。記憶領域80には、デジタル画像として記憶されたインスタントフイルム11、ひいては印刷画像12と、感情情報45とが、画像IDによって関連付けて記憶されている。画像ID「P00002」で示される印刷画像12のように、SNSへの投稿がされていない印刷画像12には、投稿時における感情は登録されない。
各印刷画像12にはタグ情報が登録されている。タグ情報は、印刷画像12に写る被写体を端的に表す単語である。タグ情報は、ユーザUが手入力したもの、あるいは、画像解析ソフトを用いて導出したものを含む。また、図示は省略したが、各印刷画像12には、撮影時のインスタントカメラ10の設定(マクロ、自撮り、ストロボ撮影等)、撮影時のシーン(日中、夜間、屋外、屋内等)、および画質評価点等も登録されている。
一例として図16に示すように、記憶指示画面35においてOKボタン42が押された場合、ブラウザ制御部32は、図7で示したように感情情報45Aを生成したうえで、第1記憶要求85Aを画像管理サーバ17に送信する。第1記憶要求85Aは、ユーザIDと、デジタル画像として記憶されたインスタントフイルム11、ひいては印刷画像12と、感情情報45Aとを含む。
受付部75は第1記憶要求85Aを受け付け、第1記憶要求85AをRW制御部76に出力する。RW制御部76は、第1記憶要求85Aに応じて、ユーザIDに対応する画像DB71の記憶領域80に、印刷画像12と感情情報45Aとを関連付けて記憶する。図16においては、自動車が写された印刷画像12と、感情情報45Aの撮影時における感情「喜び」および記憶時における感情「楽しい」を、ユーザID「U00001」のユーザUの記憶領域80に関連付けて記憶する例を示している。なお、図16においては、タグ情報等の図示を省略している。以降の図17等も同様である。
一例として図17に示すように、画像再生表示画面50においてOKボタン57が押された場合、ブラウザ制御部32は、図10で示したように感情情報45Bを生成したうえで、第2記憶要求85Bを画像管理サーバ17に送信する。第2記憶要求85Bは、ユーザIDと感情情報45Bとを含む。
受付部75は第2記憶要求85Bを受け付け、第2記憶要求85BをRW制御部76に出力する。RW制御部76は、第2記憶要求85Bに応じて、ユーザIDに対応する画像DB71の記憶領域80に、感情情報45Bを記憶する。図17においては、印刷画像12が図16の場合と同じく自動車が写されたもので、感情情報45Bの投稿時における感情「楽しい」を、ユーザID「U00001」のユーザUの記憶領域80に記憶する例を示している。このように、RW制御部76は、撮影時、記憶時、および投稿時の3つの時点における感情情報45と印刷画像12とを、画像DB71に関連付けて記憶する。
一例として図18に示すように、ブラウザ制御部32は、ユーザUの指示に応じて、画像一覧表示画面90をディスプレイ24Aに表示する。画像一覧表示画面90には、デジタル画像として記憶されたインスタントフイルム11の印刷画像12のサムネイル画像12Sが一覧表示される。この画像一覧表示画面90において、ある1つのサムネイル画像12SをユーザUが選択した場合、図8で示した画像再生表示画面50に表示が遷移される。
画像一覧表示画面90には検索バー91が設けられている。検索バー91には、所望の印刷画像12を検索するための検索キーワードがユーザUにより入力される。検索キーワードには、任意の単語と、感情情報45の各感情の単語「喜び」、「怒り」、「哀しい」、および「楽しい」とを入力することができる。
一例として図19に示すように、検索バー91に検索キーワードが入力された場合、ブラウザ制御部32は検索要求95を生成する。検索要求95は、ユーザID、および検索バー91に入力された検索キーワードを含む。図19においては、検索キーワードとして、任意の単語「家族」と感情の単語「楽しい」とが入力された例を示している。
一例として図20に示すように、ブラウザ制御部32は、検索要求95を画像管理サーバ17に送信する。受付部75は検索要求95を受け付け、検索要求95をRW制御部76に出力する。RW制御部76は、ユーザIDに対応する画像DB71の記憶領域80に記憶された印刷画像12のうち、感情情報45およびタグ情報が検索キーワードと一致する印刷画像12を検索する。RW制御部76は、検索した印刷画像12の画像IDを配信制御部77に出力する。配信制御部77は、RW制御部76からの画像IDを、検索要求95の要求元のユーザ端末15に配信する。配信制御部77は、検索要求95の要求元のユーザ端末15を、検索要求95に含まれるユーザIDを元に特定する。図20においては、検索キーワードが図19の場合と同じ「家族」および「楽しい」である例を示している。そして、感情情報45に「楽しい」、タグ情報に「家族」がそれぞれ登録された画像ID「P00200」、「P00201」、および「P00202」の3つの印刷画像12を検索する例を示している。
一例として図21に示すように、ブラウザ制御部32は、画像一覧表示画面90において、RW制御部76が検索して配信制御部77が配信した画像IDの印刷画像12のサムネイル画像12Sのみを、検索結果として表示する。このように、印刷画像12は、感情情報45を検索キーワードとして検索することが可能である。なお、ここでは任意の単語と感情の単語とのアンド検索を例示したが、これに限らない。任意の単語のみを検索キーワードとしたり、1つの感情の単語のみを検索キーワードとしたり、あるいは2つ以上の感情の単語を検索キーワードとしたりして、印刷画像12を検索することももちろん可能である。
次に、上記構成による作用について、一例として図22、図23、図24、および図25に示すフローチャートを参照して説明する。ユーザ端末15のCPU22Aは、図3で示したように、印刷画像AP30の起動により、ブラウザ制御部32として機能される。また、画像管理サーバ17のCPU22Bは、図14で示したように、作動プログラム70の起動により、受付部75、RW制御部76、および配信制御部77として機能される。
ユーザUは、所望のインスタントフイルム11をデジタル画像として記憶するために、図4で示した記憶指示画面35をディスプレイ24Aに表示させる。そして、デジタル画像として記憶したいインスタントフイルム11を枠36内に収め、記憶指示ボタン38を押す。これにより、ブラウザ制御部32においてインスタントフイルム11の記憶指示が受け付けられる(図22のステップST100でYES)。ブラウザ制御部32によって、記憶指示画面35の表示が図5で示したように遷移される。
ユーザUは、感情入力メニュー41Aおよび41Bを操作して、撮影時における感情および記憶時における感情を入力した後、OKボタン42を押す。これにより、ブラウザ制御部32にて、撮影時および記憶時における印刷画像12に対する感情の入力が受け付けられる(ステップST110)。図7で示したように、ブラウザ制御部32によって撮影時および記憶時における感情情報45Aが生成される(ステップST120)。そして、図16で示したように、ブラウザ制御部32の制御の下、感情情報45Aを含む第1記憶要求85Aが画像管理サーバ17に送信される(ステップST130)。
画像管理サーバ17においては、第1記憶要求85Aが受付部75にて受け付けられる(図23のステップST150でYES)。第1記憶要求85Aは受付部75からRW制御部76に出力される。そして、RW制御部76の制御の下、撮影時および記憶時における感情情報45Aと印刷画像12とが関連付けられて画像DB71に記憶される(ステップST160)。
ユーザUは、所望のインスタントフイルム11をSNSに投稿するために、図8で示した画像再生表示画面50をディスプレイ24Aに表示させる。そして、投稿ボタン52を押す。これにより、ブラウザ制御部32においてインスタントフイルム11の投稿指示が受け付けられる(図24のステップST200でYES)。ブラウザ制御部32によって、画像再生表示画面50の表示が図9で示したように遷移される。
ユーザUは、感情入力メニュー41Cを操作して、投稿時における感情を入力した後、OKボタン57を押す。これにより、ブラウザ制御部32にて、投稿時における印刷画像12に対する感情の入力が受け付けられる(ステップST210)。図10で示したように、ブラウザ制御部32によって投稿時における感情情報45Bが生成される(ステップST220)。そして、図17で示したように、ブラウザ制御部32の制御の下、感情情報45Bを含む第2記憶要求85Bが画像管理サーバ17に送信される(ステップST230)。
画像管理サーバ17においては、第2記憶要求85Bが受付部75にて受け付けられる(図25のステップST250でYES)。第1記憶要求85Aは受付部75からRW制御部76に出力される。そして、RW制御部76の制御の下、投稿時における感情情報45Bと印刷画像12とが関連付けられて画像DB71に記憶される(ステップST260)。
以上説明したように、ユーザ端末15のCPU22Aのブラウザ制御部32は、複数の時点における印刷画像12に対するユーザUの感情の入力を受け付ける。画像管理サーバ17のCPU22BのRW制御部76は、複数の時点における感情情報45と印刷画像12とを画像DB71に関連付けて記憶する。
特開2017-092528号公報では、印刷画像12に対するユーザUの感情を入力するタイミングが撮影時に限られている。このため、時間とともに移ろう印刷画像12に対するユーザUの感情を的確に把握することができない。対して本開示の技術は、前述のように、複数の時点における印刷画像12に対するユーザUの感情の入力を受け付け、複数の時点における感情情報45と印刷画像12とを関連付けて記憶している。したがって、印刷画像12に対するユーザUの感情をより的確に把握することが可能となる。
画像はインスタントフイルム11に印刷出力された印刷画像12である。そして、複数の時点は、印刷画像12を撮影する時点(撮影時)、インスタントフイルム11をデジタル画像として記憶する時点(記憶時)、インスタントフイルム11のデジタル画像をSNSに投稿する時点(投稿時)である。このため、撮影時、記憶時、および投稿時における印刷画像12に対するユーザUの感情を的確に把握することが可能となる。なお、複数の時点は、撮影時、記憶時、および投稿時の全てに限らず、これらの中から選択された組み合わせ(例えば撮影時と記憶時、あるいは記憶時と投稿時等)であればよい。
図8および図11~図13で示したように、ブラウザ制御部32は、印刷画像12を表示するときに、感情情報45に応じた表示エフェクトをかける。このため、印刷画像12に対するユーザUの感情が一目で分かる。また、味気なくなりがちな印刷画像12の表示を、趣のあるものとすることができる。なお、表示エフェクトと併せて、感情情報45に応じた音楽を流してもよい。
図18~図21で示したように、印刷画像12は、感情情報45を検索キーワードとして検索することが可能である。このため、よりユーザUの意図に合った印刷画像12を検索することができる。
[第2実施形態]
一例として図26に示すように、本実施形態では、図4で示した記憶指示画面35において記憶指示ボタン38が押された場合、および、図8で示した画像再生表示画面50において投稿ボタン52が押された場合、ブラウザ制御部32は、感情推定要求100を画像管理サーバ17に送信する。感情推定要求100は、ユーザIDと、デジタル画像として記憶されたインスタントフイルム11、ひいては印刷画像12とを含む。なお、印刷画像12は、図16で例示した自動車が写されたものである。
一例として図26に示すように、本実施形態では、図4で示した記憶指示画面35において記憶指示ボタン38が押された場合、および、図8で示した画像再生表示画面50において投稿ボタン52が押された場合、ブラウザ制御部32は、感情推定要求100を画像管理サーバ17に送信する。感情推定要求100は、ユーザIDと、デジタル画像として記憶されたインスタントフイルム11、ひいては印刷画像12とを含む。なお、印刷画像12は、図16で例示した自動車が写されたものである。
本実施形態の画像管理サーバ17のCPU22Bは、上記第1実施形態の各処理部75~77(図26においてはRW制御部76は不図示)に加えて、感情推定部101として機能する。
受付部75は感情推定要求100を受け付け、感情推定要求100を感情推定部101に出力する。感情推定部101は、感情推定要求100に応じて、印刷画像12に対するユーザUの感情を推定する。感情推定部101は、印刷画像12に対するユーザUの感情を推定した結果である感情推定結果103を配信制御部77に出力する。配信制御部77は、感情推定結果103を、感情推定要求100の要求元のユーザ端末15に配信する。
一例として図27に示すように、感情推定部101は、感情推定モデル105を用いて印刷画像12に対するユーザUの感情を推定する。感情推定モデル105はストレージ20Bに記憶されている。感情推定モデル105はRW制御部76によってストレージ20Bから読み出され、感情推定部101に出力される。感情推定モデル105は、例えば畳み込みニューラルネットワーク等で構成される。感情推定モデル105は、本開示の技術に係る「機械学習モデル」の一例である。
感情推定部101は、感情推定要求100の印刷画像12を感情推定モデル105に入力し、感情推定モデル105から印刷画像12に対するユーザUの感情推定結果103を出力させる。図27においては、印刷画像12に対するユーザUの感情を「喜び」と推定した例を示している。
配信制御部77からの感情推定結果103を受信した場合、ブラウザ制御部32は、一例として図28に示すように、感情入力メニュー41において、感情推定結果103の感情に該当する顔型43の上部に、吹き出しメッセージ108を表示する。吹き出しメッセージ108は、「もしかしてこんな気持ちでしたか?」と、感情推定モデル105により推定した感情をユーザUに示す内容である。図28では、撮影時の感情入力メニュー41Aにおいて、感情推定結果103の感情に該当する、感情として「喜び」を表す顔型43Aの上部に、吹き出しメッセージ108を表示した例を示している。なお、図示は省略したが、ブラウザ制御部32は、記憶時の感情入力メニュー41Bおよび投稿時の感情入力メニュー41Cにおいても、感情推定結果103の感情に該当する顔型43の上部に、吹き出しメッセージ108を表示する。
一例として図29に示すように、感情推定モデル105は教師データ110を与えられて学習される。教師データ110は、学習用印刷画像12Lおよび正解感情情報45CAの組である。
学習フェーズにおいて、感情推定モデル105には、学習用印刷画像12Lが入力される。感情推定モデル105は、学習用印刷画像12Lの入力に応じて、学習用感情推定結果103Lを出力する。この学習用感情推定結果103Lおよび正解感情情報45CAに基づいて、損失関数を用いた感情推定モデル105の損失演算がなされる。そして、損失演算の結果に応じて感情推定モデル105の各種係数の更新設定がなされ、更新設定にしたがって感情推定モデル105が更新される。
学習フェーズにおいては、学習用印刷画像12Lの感情推定モデル105への入力、感情推定モデル105からの学習用感情推定結果103Lの出力、損失演算、更新設定、および感情推定モデル105の更新の上記一連の処理が、教師データ110が交換されつつ繰り返し行われる。上記一連の処理の繰り返しは、正解感情情報45CAに対する学習用感情推定結果103Lの推定精度が、予め定められた設定レベルまで達した場合に終了される。こうして推定精度が設定レベルまで達した感情推定モデル105が、ストレージ20Bに記憶されて感情推定部101において用いられる。なお、正解感情情報45CAに対する学習用感情推定結果103Lの推定精度に関係なく、上記一連の処理を設定回数繰り返した場合に学習を終了してもよい。
このように、第2実施形態においては、感情推定部101は、印刷画像12の入力に応じて感情推定結果103を出力する感情推定モデル105を用いて感情を推定する。ブラウザ制御部32は、吹き出しメッセージ108を表示することにより、感情推定部101が推定した感情をユーザUに表示する。感情推定モデル105といった機械学習モデルは、最近盛んに実用化され、その推定精度も高まっている。このため、より適切な感情の入力を支援することができる。
なお、一例として図30に示すように、画像DB71に関連付けて記憶された印刷画像12および感情情報45を、感情推定モデル105の教師データ110として用いてもよい。具体的には、画像DB71に記憶された印刷画像12を学習用印刷画像12Lとして用い、画像DB71に記憶された撮影時の感情情報45を正解感情情報45CAとして用いる。ここで、撮影時の感情情報45を正解感情情報45CAとして用いるのは、記憶時および投稿時よりも印刷画像12に対するユーザUの感情を素直に表していると考えられるためである。こうすれば、画像DB71に記憶された印刷画像12および感情情報45を有効活用することができる。教師データ110用に改めて学習用印刷画像12Lおよび正解感情情報45CAを用意しなくて済む。また、教師データ110の不足に悩まされるおそれを軽減することができ、教師データ110の不足による感情推定モデル105の過学習のリスクを抑制することができる。
画像DB71に関連付けて記憶された印刷画像12および感情情報45を、感情推定モデル105の教師データ110として用いる場合は、一例として図31に示すように、印刷画像12および感情情報45とともに感情推定結果103も画像DB71に関連付けて記憶しておく。そして、撮影時の感情情報45と感情推定結果103とが異なる(図31では撮影時の感情情報≠感情推定結果と表記)データを、感情推定モデル105の教師データ110として積極的に採用することが好ましい。撮影時の感情情報45と感情推定結果103とが異なるデータは、感情推定モデル105が感情の推定を誤ったデータである。このため、撮影時の感情情報45と感情推定結果103とが異なるデータを、感情推定モデル105の教師データ110として積極的に採用すれば、感情推定モデル105の推定精度を向上させることができる。
感情推定モデル105の学習は、画像管理サーバ17で行ってもよいし、画像管理サーバ17以外の別の装置で行ってもよい。また、感情推定モデル105の学習は、ストレージ20Bに記憶した後に継続的に行ってもよい。
[第3実施形態]
一例として図32に示すように、本実施形態では、図4で示した記憶指示画面35において記憶指示ボタン38が押された場合、ブラウザ制御部32は、感情推定要求115を画像管理サーバ17に送信する。感情推定要求115は、ユーザIDと、デジタル画像として記憶されたインスタントフイルム11、ひいては印刷画像12とを含む。なお、印刷画像12には、図16の場合と同じく、自動車が写されたものであり、「新車買ったぜ!!」というテキスト14がユーザUにより余白13に書き込まれたものを例示している。
一例として図32に示すように、本実施形態では、図4で示した記憶指示画面35において記憶指示ボタン38が押された場合、ブラウザ制御部32は、感情推定要求115を画像管理サーバ17に送信する。感情推定要求115は、ユーザIDと、デジタル画像として記憶されたインスタントフイルム11、ひいては印刷画像12とを含む。なお、印刷画像12には、図16の場合と同じく、自動車が写されたものであり、「新車買ったぜ!!」というテキスト14がユーザUにより余白13に書き込まれたものを例示している。
本実施形態の画像管理サーバ17のCPU22Bは、上記第1実施形態の各処理部75~77(図32においてはRW制御部76は不図示)に加えて、感情推定部116として機能する。
受付部75は感情推定要求115を受け付け、感情推定要求115を感情推定部116に出力する。感情推定部116は、感情推定要求115に応じて、撮影時における印刷画像12に対するユーザUの感情を推定する。感情推定部116は、撮影時における印刷画像12に対するユーザUの感情を推定した結果である感情推定結果117を配信制御部77に出力する。配信制御部77は、感情推定結果117を、感情推定要求115の要求元のユーザ端末15に配信する。
一例として図33に示すように、感情推定部116は、テキスト読取部120および自然言語解析部121を有する。テキスト読取部120には、感情推定要求115のインスタントフイルム11が入力される。テキスト読取部120は、デジタル画像として記憶されたインスタントフイルム11を画像解析することで、ユーザUがインスタントフイルム11の余白13等に実記したテキスト14を読み取る。テキスト読取部120は、テキスト14を読み取った結果であるテキスト読取結果122を自然言語解析部121に出力する。
自然言語解析部121は、テキスト読取結果122のテキスト14の自然言語解析を行う。自然言語解析部121は、自然言語解析の結果にしたがって、撮影時における印刷画像12に対するユーザUの感情を推定し、感情推定結果117を出力する。自然言語解析部121は、例えば、自然言語解析の結果の入力に応じて感情推定結果117を出力する感情推定モデルを用いて、撮影時における印刷画像12に対するユーザUの感情を推定する。ここで、自然言語解析部121が行う自然言語解析は、形態素解析、構文解析、意味解析、および文脈解析等である。図33においては、「新車買ったぜ!!」なるテキスト14をテキスト読取部120で読み取り、撮影時における印刷画像12に対するユーザUの感情を「喜び」と推定した例を示している。
図示は省略したが、配信制御部77からの感情推定結果117を受信した場合、ブラウザ制御部32は、図28で示した場合と同様に、感情入力メニュー41Aにおいて、感情推定結果117の感情に該当する顔型43の上部に、吹き出しメッセージ108を表示する。
このように、第3実施形態においては、感情推定部116のテキスト読取部120は、デジタル画像として記憶されたインスタントフイルム11を画像解析することで、ユーザUがインスタントフイルム11に実記したテキスト14を読み取る。感情推定部116の自然言語解析部121は、テキスト14の自然言語解析を行い、自然言語解析の結果にしたがって、撮影時における印刷画像12に対するユーザUの感情を推定する。ブラウザ制御部32は、吹き出しメッセージ108を表示することにより、感情推定部116が推定した感情をユーザUに表示する。このため、ユーザUがインスタントフイルム11に実記したテキスト14に適応した感情の入力を支援することができる。
[第4実施形態]
本実施形態では、図8で示した画像再生表示画面50において投稿ボタン52が押された場合、ブラウザ制御部32は、ユーザUによるテキスト125の入力を受け付ける。テキスト125は、インスタントフイルム11をSNSに投稿するときに、インスタントフイルム11に付帯させる説明文等である。ブラウザ制御部32は、テキスト125の入力を受け付けた後、画像再生表示画面50の表示を図9で示したように遷移させる。
本実施形態では、図8で示した画像再生表示画面50において投稿ボタン52が押された場合、ブラウザ制御部32は、ユーザUによるテキスト125の入力を受け付ける。テキスト125は、インスタントフイルム11をSNSに投稿するときに、インスタントフイルム11に付帯させる説明文等である。ブラウザ制御部32は、テキスト125の入力を受け付けた後、画像再生表示画面50の表示を図9で示したように遷移させる。
一例として図34に示すように、本実施形態では、ユーザUによるテキスト125の入力を受け付けた場合、ブラウザ制御部32は、感情推定要求126を画像管理サーバ17に送信する。感情推定要求126は、ユーザIDと入力テキスト情報127とを含む。入力テキスト情報127はテキスト125を含む。なお、印刷画像12には、公園で遊ぶ母娘が写されたものであり、「XX公園に家族でお出掛け はしゃぐ娘」というテキスト125がユーザUにより書き込まれたものを例示している。
本実施形態の画像管理サーバ17のCPU22Bは、上記第1実施形態の各処理部75~77(図34においてはRW制御部76は不図示)に加えて、感情推定部128として機能する。
受付部75は感情推定要求126を受け付け、感情推定要求126を感情推定部128に出力する。感情推定部128は、感情推定要求126に応じて、投稿時における印刷画像12に対するユーザUの感情を推定する。感情推定部128は、投稿時における印刷画像12に対するユーザUの感情を推定した結果である感情推定結果129を配信制御部77に出力する。配信制御部77は、感情推定結果129を、感情推定要求126の要求元のユーザ端末15に配信する。
一例として図35に示すように、感情推定部128は、テキスト取得部130および自然言語解析部131を有する。テキスト取得部130には、感情推定要求126の入力テキスト情報127が入力される。テキスト取得部130は、入力テキスト情報127を自然言語解析部131に出力する。
自然言語解析部131は、テキスト125の自然言語解析を行う。自然言語解析部131は、自然言語解析の結果にしたがって、投稿時における印刷画像12に対するユーザUの感情を推定し、感情推定結果129を出力する。自然言語解析部131は、自然言語解析部121と同じく、例えば、自然言語解析の結果の入力に応じて感情推定結果129を出力する感情推定モデルを用いて、投稿時における印刷画像12に対するユーザUの感情を推定する。自然言語解析部131が行う自然言語解析も、自然言語解析部121と同じく、形態素解析、構文解析、意味解析、および文脈解析等である。図35においては、「XX公園に家族でお出掛け はしゃぐ娘」なるテキスト125から、投稿時における印刷画像12に対するユーザUの感情を「楽しい」と推定した例を示している。
図示は省略したが、配信制御部77からの感情推定結果129を受信した場合、ブラウザ制御部32は、図28で示した場合と同様に、感情入力メニュー41Cにおいて、感情推定結果129の感情に該当する顔型43の上部に、吹き出しメッセージ108を表示する。
このように、第4実施形態においては、感情推定部128のテキスト取得部130は、入力テキスト情報127を取得することで、デジタル画像として記憶されたインスタントフイルム11をSNSに投稿するときにユーザUが入力したテキスト125を取得する。感情推定部128の自然言語解析部131は、テキスト125の自然言語解析を行い、自然言語解析の結果にしたがって、投稿時における印刷画像12に対するユーザUの感情を推定する。ブラウザ制御部32は、吹き出しメッセージ108を表示することにより、感情推定部128が推定した感情をユーザUに表示する。このため、ユーザUがインスタントフイルム11をSNSに投稿するときに入力したテキスト125に適応した感情の入力を支援することができる。
[第5実施形態]
一例として図36に示すように、本実施形態では、ユーザUが腕に付けたスマートウォッチ135から出力されるユーザUの状態情報136を、ユーザUの感情の推定に用いる。スマートウォッチ135は、本開示の技術に係る「ウェアラブルデバイス」の一例である。
一例として図36に示すように、本実施形態では、ユーザUが腕に付けたスマートウォッチ135から出力されるユーザUの状態情報136を、ユーザUの感情の推定に用いる。スマートウォッチ135は、本開示の技術に係る「ウェアラブルデバイス」の一例である。
スマートウォッチ135は、インスタントカメラ10およびユーザ端末15と、Bluetooth(登録商標)といった近距離無線通信により相互通信可能に接続されている。スマートウォッチ135は、インスタントカメラ10およびユーザ端末15と連動する。より詳しくは、スマートウォッチ135は、インスタントカメラ10への印刷画像12の撮影指示、記憶指示ボタン38の押下によるユーザ端末15への印刷画像12の記憶指示、および投稿ボタン52の押下によるユーザ端末15への印刷画像12の投稿指示に連動して、状態情報136をユーザ端末15に送信する。
状態情報136は、体温変動データ、脈拍変動データ、血圧変動データ、および角速度変動データを含む。一例として図37に示すように、体温変動データは、印刷画像12の撮影指示、記憶指示、あるいは投稿指示が行われたとき(0秒)の前後30秒のユーザUの体温の移り変わりを示す時系列データである。図示は省略したが、脈拍変動データ、血圧変動データ、および角速度変動データも、体温変動データと同じく、印刷画像12の撮影指示、記憶指示、あるいは投稿指示が行われたときの前後30秒のユーザUの脈拍、血圧、および角速度の移り変わりを示す時系列データである。角速度変動データによれば、印刷画像12の撮影指示、記憶指示、あるいは投稿指示が行われたときのユーザUの手ぶれの状態を把握することができる。
一例として図38に示すように、本実施形態では、スマートウォッチ135からの状態情報136を受信した場合、ブラウザ制御部32は、感情推定要求140を画像管理サーバ17に送信する。感情推定要求140は、ユーザIDと状態情報136とを含む。
本実施形態の画像管理サーバ17のCPU22Bは、上記第1実施形態の各処理部75~77(図38においてはRW制御部76は不図示)に加えて、感情推定部141として機能する。
受付部75は感情推定要求140を受け付け、感情推定要求140を感情推定部141に出力する。感情推定部141は、感情推定要求140に応じて、撮影時、記憶時、あるいは投稿時の印刷画像12に対するユーザUの感情を推定する。感情推定部141は、印刷画像12に対するユーザUの感情を推定した結果である感情推定結果142を配信制御部77に出力する。配信制御部77は、感情推定結果142を、感情推定要求140の要求元のユーザ端末15に配信する。感情推定部141は、例えば、状態情報136の入力に応じて感情推定結果142を出力する感情推定モデルを用いて、印刷画像12に対するユーザUの感情を推定する。
図示は省略したが、配信制御部77からの感情推定結果142を受信した場合、ブラウザ制御部32は、図28で示した場合と同様に、感情入力メニュー41において、感情推定結果142の感情に該当する顔型43の上部に、吹き出しメッセージ108を表示する。
このように、第5実施形態においては、感情推定部141は、ユーザUが腕に付けたスマートウォッチ135からのユーザUの状態情報136を取得し、状態情報136に基づいて印刷画像12に対するユーザUの感情を推定する。ブラウザ制御部32は、吹き出しメッセージ108を表示することにより、感情推定部141が推定した感情をユーザUに表示する。このため、ユーザUの状態情報136に適応した感情の入力を支援することができる。
ウェアラブルデバイスとしては、例示のスマートウォッチ135に限らない。ユーザUの頭に巻き付けるように装着するものでもよいし、ユーザUの着る衣服に内蔵されたものでもよい。また、体温変動データ等に加えて、あるいは代えて、呼吸変動データ等を状態情報136としてもよい。
[第6実施形態]
一例として図39に示すように、本実施形態では、図4で示した記憶指示画面35において記憶指示ボタン38が押された場合、ブラウザ制御部32は、感情推定要求145を画像管理サーバ17に送信する。感情推定要求145は、ユーザIDと、デジタル画像として記憶されたインスタントフイルム11、ひいては印刷画像12とを含む。なお、印刷画像12には、笑顔のカップルが写されたものを例示している。
一例として図39に示すように、本実施形態では、図4で示した記憶指示画面35において記憶指示ボタン38が押された場合、ブラウザ制御部32は、感情推定要求145を画像管理サーバ17に送信する。感情推定要求145は、ユーザIDと、デジタル画像として記憶されたインスタントフイルム11、ひいては印刷画像12とを含む。なお、印刷画像12には、笑顔のカップルが写されたものを例示している。
本実施形態の画像管理サーバ17のCPU22Bは、上記第1実施形態の各処理部75~77(図39においてはRW制御部76は不図示)に加えて、感情推定部146として機能する。
受付部75は感情推定要求145を受け付け、感情推定要求145を感情推定部146に出力する。感情推定部146は、感情推定要求145に応じて、撮影時における印刷画像12に対するユーザUの感情を推定する。感情推定部146は、撮影時における印刷画像12に対するユーザUの感情を推定した結果である感情推定結果147を配信制御部77に出力する。配信制御部77は、感情推定結果147を、感情推定要求145の要求元のユーザ端末15に配信する。
一例として図40に示すように、感情推定部146は、顔抽出部150および表情検出部151を有する。顔抽出部150には、感情推定要求145の印刷画像12が入力される。顔抽出部150は、周知の顔抽出技術を用いて、印刷画像12に写る人物の顔を抽出する。顔抽出部150は、顔を抽出した結果である顔抽出結果152を表情検出部151に出力する。
表情検出部151は、周知の画像認識技術を用いて、顔抽出結果152の人物の顔の表情を検出する。表情検出部151は、表情の検出結果に基づいて、撮影時における印刷画像12に対するユーザUの感情を推定し、感情推定結果147を出力する。表情検出部151は、例えば、表情の検出結果の入力に応じて感情推定結果147を出力する感情推定モデルを用いて、撮影時における印刷画像12に対するユーザUの感情を推定する。図40においては、笑顔のカップルの顔抽出結果152から、撮影時における印刷画像12に対するユーザUの感情を「楽しい」と推定した例を示している。
図示は省略したが、配信制御部77からの感情推定結果147を受信した場合、ブラウザ制御部32は、図28で示した場合と同様に、感情入力メニュー41Aにおいて、感情推定結果147の感情に該当する顔型43の上部に、吹き出しメッセージ108を表示する。
このように、第6実施形態においては、感情推定部146の表情検出部151は、印刷画像12に写る人物の表情を検出し、表情の検出結果に基づいて、印刷画像12に対するユーザUの感情を推定する。ブラウザ制御部32は、吹き出しメッセージ108を表示することにより、感情推定部146が推定した感情をユーザUに表示する。このため、印刷画像12に写る人物の表情に適応した感情の入力を支援することができる。
上記第2~第6実施形態は、単独で実施してもよいし、複合して実施してもよい。例えば上記第2、第3、および第5実施形態を複合して実施する場合は、一例として図41に示す感情推定モデル155を用いればよい。感情推定モデル155は、印刷画像12、テキスト読取結果122、および状態情報136の入力に応じて、感情推定結果156を出力する。感情推定モデル155は、本開示の技術に係る「機械学習モデル」の一例である。こうすれば、上記第2、第3、および第5実施形態を単独で実施する場合と比べて、印刷画像12に対するユーザUの感情を推定する材料が増えるため、感情推定結果156の推定精度をより高めることができる。
上記第2~第6実施形態において感情推定部101、116、128、141、および146が推定した感情を、感情情報45として記憶してもよい。そのうえで、記憶した感情情報45をユーザUに提示し、ユーザUによる感情情報45の修正指示を受け付けてもよい。
上記各実施形態では、撮影時、記憶時、および投稿時における印刷画像12に対する感情の入力を、ユーザUに半ば強制する構成となっているが、これに限らない。撮影時、記憶時、および投稿時における印刷画像12に対する感情の入力を受け付けることが可能な構成となっていればよく、感情の入力をユーザUに強制する構成は必要ではない。また、画像DB71に予め感情情報45の記憶領域を確保しておく必要もない。感情の入力を受け付ける度に、画像DB71に感情情報45の記憶領域を確保すればよい。
なお、感情としては、例示の「喜び」、「怒り」、「哀しい」、および「楽しい」に限らない。「懐かしい」、「愛しい」、「恐ろしい」、あるいは「幸福」等でもよい。また、画像は印刷画像12に限らず、カメラ機能を有する機器で撮影されたデジタル画像でもよい。
時点としては、例示の撮影時、記憶時、および投稿時に限らない。撮影から1年後、2年後、5年後、あるいは10年後といった定期的な時点でもよい。
ユーザ端末15のブラウザ制御部32の機能の全部または一部を画像管理サーバ17に担わせてもよい。具体的には、画像管理サーバ17において記憶指示画面35等の各種画面を生成し、例えばXML(Extensible Markup Language)等のマークアップ言語によって作成されるウェブ配信用の画面データの形式でユーザ端末15に配信出力する。この場合、ユーザ端末15のブラウザ制御部32は、画面データに基づきウェブブラウザ上に表示する各種画面を再現し、これをディスプレイ24Aに表示する。なお、XMLに代えて、JSON(Javascript(登録商標) Object Notation)等の他のデータ記述言語を利用してもよい。
画像管理サーバ17を構成するコンピュータのハードウェア構成は種々の変形が可能である。例えば、画像管理サーバ17を、処理能力および信頼性の向上を目的として、ハードウェアとして分離された複数台のコンピュータで構成することも可能である。例えば、受付部75およびRW制御部76の機能と、配信制御部77の機能とを、2台のコンピュータに分散して担わせる。この場合は2台のコンピュータで画像管理サーバ17を構成する。また、画像管理サーバ17の全部または一部の機能を、ユーザ端末15が担ってもよい。
このように、ユーザ端末15および画像管理サーバ17のコンピュータのハードウェア構成は、処理能力、安全性、信頼性等の要求される性能に応じて適宜変更することができる。さらに、ハードウェアに限らず、印刷画像AP30および作動プログラム70といったAPについても、安全性および信頼性の確保を目的として、二重化したり、あるいは、複数のストレージに分散して格納することももちろん可能である。
上記各実施形態において、例えば、ブラウザ制御部32、受付部75、RW制御部76、配信制御部77、感情推定部101、116、128、141、および146、テキスト読取部120、自然言語解析部121および131、テキスト取得部130、顔抽出部150、並びに表情検出部151といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。各種のプロセッサには、ソフトウェア(印刷画像AP30および作動プログラム70)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU22Aおよび22Bに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、および/またはASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、および/または、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。
以上の記載から、下記の付記項に記載の技術を把握することができる。
[付記項1]
プロセッサを備え、
前記プロセッサは、
複数の時点における画像に対するユーザの感情の入力を受け付け、
複数の前記時点における前記感情の情報と前記画像とを関連付けて記憶する、
画像処理装置。
[付記項2]
前記画像はインスタントフイルムに印刷出力された印刷画像であり、
複数の前記時点は、前記印刷画像を撮影する時点、前記インスタントフイルムをデジタル画像として記憶する時点、および前記インスタントフイルムのデジタル画像をソーシャルネットワーキングサービスに投稿する時点の中から選択された組み合わせである付記項1に記載の画像処理装置。
[付記項3]
前記プロセッサは、
前記画像を表示するときに、前記感情の情報に応じた表示エフェクトをかける付記項1または付記項2に記載の画像処理装置。
[付記項4]
前記画像は、前記感情の情報を検索キーワードとして検索することが可能である付記項1から付記項3のいずれか1項に記載の画像処理装置。
[付記項5]
前記プロセッサは、
前記画像の入力に応じて前記感情の情報を出力する機械学習モデルを用いて前記感情を推定し、
推定した前記感情を前記ユーザに表示する付記項1から付記項4のいずれか1項に記載の画像処理装置。
[付記項6]
関連付けて記憶された前記感情の情報と前記画像とが、前記機械学習モデルの教師データとして用いられる付記項5に記載の画像処理装置。
[付記項7]
前記画像はインスタントフイルムに印刷出力された印刷画像であり、
複数の前記時点は、前記印刷画像を撮影する時点を含み、
前記プロセッサは、
前記インスタントフイルムのデジタル画像を取得し、
前記デジタル画像を画像解析することで、前記ユーザが前記インスタントフイルムに実記したテキストを読み取り、
前記テキストの自然言語解析を行い、
前記自然言語解析の結果にしたがって、前記印刷画像を撮影する時点における前記感情を推定し、
推定した前記感情を前記ユーザに表示する付記項1から付記項6のいずれか1項に記載の画像処理装置。
[付記項8]
前記画像はインスタントフイルムに印刷出力された印刷画像であり、
複数の前記時点は、前記インスタントフイルムのデジタル画像をソーシャルネットワーキングサービスに投稿する時点を含み、
前記プロセッサは、
前記デジタル画像をソーシャルネットワーキングサービスに投稿するときに前記ユーザが入力したテキストを取得し、
前記テキストの自然言語解析を行い、
前記自然言語解析の結果にしたがって、前記デジタル画像をソーシャルネットワーキングサービスに投稿する時点における前記感情を推定し、
推定した前記感情を前記ユーザに表示する付記項1から付記項7のいずれか1項に記載の画像処理装置。
[付記項9]
前記プロセッサは、
前記ユーザが身に付けたウェアラブルデバイスからの前記ユーザの状態情報を取得し、
前記状態情報に基づいて前記感情を推定し、
推定した前記感情を前記ユーザに表示する付記項1から付記項8のいずれか1項に記載の画像処理装置。
[付記項10]
前記プロセッサは、
前記画像に写る人物の表情を検出し、
前記表情の検出結果に基づいて前記感情を推定し、
推定した前記感情を前記ユーザに表示する付記項1から付記項9のいずれか1項に記載の画像処理装置。
プロセッサを備え、
前記プロセッサは、
複数の時点における画像に対するユーザの感情の入力を受け付け、
複数の前記時点における前記感情の情報と前記画像とを関連付けて記憶する、
画像処理装置。
[付記項2]
前記画像はインスタントフイルムに印刷出力された印刷画像であり、
複数の前記時点は、前記印刷画像を撮影する時点、前記インスタントフイルムをデジタル画像として記憶する時点、および前記インスタントフイルムのデジタル画像をソーシャルネットワーキングサービスに投稿する時点の中から選択された組み合わせである付記項1に記載の画像処理装置。
[付記項3]
前記プロセッサは、
前記画像を表示するときに、前記感情の情報に応じた表示エフェクトをかける付記項1または付記項2に記載の画像処理装置。
[付記項4]
前記画像は、前記感情の情報を検索キーワードとして検索することが可能である付記項1から付記項3のいずれか1項に記載の画像処理装置。
[付記項5]
前記プロセッサは、
前記画像の入力に応じて前記感情の情報を出力する機械学習モデルを用いて前記感情を推定し、
推定した前記感情を前記ユーザに表示する付記項1から付記項4のいずれか1項に記載の画像処理装置。
[付記項6]
関連付けて記憶された前記感情の情報と前記画像とが、前記機械学習モデルの教師データとして用いられる付記項5に記載の画像処理装置。
[付記項7]
前記画像はインスタントフイルムに印刷出力された印刷画像であり、
複数の前記時点は、前記印刷画像を撮影する時点を含み、
前記プロセッサは、
前記インスタントフイルムのデジタル画像を取得し、
前記デジタル画像を画像解析することで、前記ユーザが前記インスタントフイルムに実記したテキストを読み取り、
前記テキストの自然言語解析を行い、
前記自然言語解析の結果にしたがって、前記印刷画像を撮影する時点における前記感情を推定し、
推定した前記感情を前記ユーザに表示する付記項1から付記項6のいずれか1項に記載の画像処理装置。
[付記項8]
前記画像はインスタントフイルムに印刷出力された印刷画像であり、
複数の前記時点は、前記インスタントフイルムのデジタル画像をソーシャルネットワーキングサービスに投稿する時点を含み、
前記プロセッサは、
前記デジタル画像をソーシャルネットワーキングサービスに投稿するときに前記ユーザが入力したテキストを取得し、
前記テキストの自然言語解析を行い、
前記自然言語解析の結果にしたがって、前記デジタル画像をソーシャルネットワーキングサービスに投稿する時点における前記感情を推定し、
推定した前記感情を前記ユーザに表示する付記項1から付記項7のいずれか1項に記載の画像処理装置。
[付記項9]
前記プロセッサは、
前記ユーザが身に付けたウェアラブルデバイスからの前記ユーザの状態情報を取得し、
前記状態情報に基づいて前記感情を推定し、
推定した前記感情を前記ユーザに表示する付記項1から付記項8のいずれか1項に記載の画像処理装置。
[付記項10]
前記プロセッサは、
前記画像に写る人物の表情を検出し、
前記表情の検出結果に基づいて前記感情を推定し、
推定した前記感情を前記ユーザに表示する付記項1から付記項9のいずれか1項に記載の画像処理装置。
本開示の技術は、上述の種々の実施形態および/または種々の変形例を適宜組み合わせることも可能である。また、上記各実施形態に限らず、要旨を逸脱しない限り種々の構成を採用し得ることはもちろんである。さらに、本開示の技術は、プログラムに加えて、プログラムを非一時的に記憶する記憶媒体にもおよぶ。
以上に示した記載内容および図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、および効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、および効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容および図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことはいうまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容および図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
本明細書において、「Aおよび/またはB」は、「AおよびBのうちの少なくとも1つ」と同義である。つまり、「Aおよび/またはB」は、Aだけであってもよいし、Bだけであってもよいし、AおよびBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「および/または」で結び付けて表現する場合も、「Aおよび/またはB」と同様の考え方が適用される。
本明細書に記載された全ての文献、特許出願および技術規格は、個々の文献、特許出願および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
Claims (12)
- プロセッサを備え、
前記プロセッサは、
複数の時点における画像に対するユーザの感情の入力を受け付け、
複数の前記時点における前記感情の情報と前記画像とを関連付けて記憶する、
画像処理装置。 - 前記画像はインスタントフイルムに印刷出力された印刷画像であり、
複数の前記時点は、前記印刷画像を撮影する時点、前記インスタントフイルムをデジタル画像として記憶する時点、および前記インスタントフイルムのデジタル画像をソーシャルネットワーキングサービスに投稿する時点の中から選択された組み合わせである請求項1に記載の画像処理装置。 - 前記プロセッサは、
前記画像を表示するときに、前記感情の情報に応じた表示エフェクトをかける請求項1に記載の画像処理装置。 - 前記画像は、前記感情の情報を検索キーワードとして検索することが可能である請求項1に記載の画像処理装置。
- 前記プロセッサは、
前記画像の入力に応じて前記感情の情報を出力する機械学習モデルを用いて前記感情を推定し、
推定した前記感情を前記ユーザに表示する請求項1に記載の画像処理装置。 - 関連付けて記憶された前記感情の情報と前記画像とが、前記機械学習モデルの教師データとして用いられる請求項5に記載の画像処理装置。
- 前記画像はインスタントフイルムに印刷出力された印刷画像であり、
複数の前記時点は、前記印刷画像を撮影する時点を含み、
前記プロセッサは、
前記インスタントフイルムのデジタル画像を取得し、
前記デジタル画像を画像解析することで、前記ユーザが前記インスタントフイルムに実記したテキストを読み取り、
前記テキストの自然言語解析を行い、
前記自然言語解析の結果にしたがって、前記印刷画像を撮影する時点における前記感情を推定し、
推定した前記感情を前記ユーザに表示する請求項1に記載の画像処理装置。 - 前記画像はインスタントフイルムに印刷出力された印刷画像であり、
複数の前記時点は、前記インスタントフイルムのデジタル画像をソーシャルネットワーキングサービスに投稿する時点を含み、
前記プロセッサは、
前記デジタル画像をソーシャルネットワーキングサービスに投稿するときに前記ユーザが入力したテキストを取得し、
前記テキストの自然言語解析を行い、
前記自然言語解析の結果にしたがって、前記デジタル画像をソーシャルネットワーキングサービスに投稿する時点における前記感情を推定し、
推定した前記感情を前記ユーザに表示する請求項1に記載の画像処理装置。 - 前記プロセッサは、
前記ユーザが身に付けたウェアラブルデバイスからの前記ユーザの状態情報を取得し、
前記状態情報に基づいて前記感情を推定し、
推定した前記感情を前記ユーザに表示する請求項1に記載の画像処理装置。 - 前記プロセッサは、
前記画像に写る人物の表情を検出し、
前記表情の検出結果に基づいて前記感情を推定し、
推定した前記感情を前記ユーザに表示する請求項1に記載の画像処理装置。 - 複数の時点における画像に対するユーザの感情の入力を受け付けること、並びに、
複数の前記時点における前記感情の情報と前記画像とを関連付けて記憶すること、
を含む画像処理装置の作動方法。 - 複数の時点における画像に対するユーザの感情の入力を受け付けること、並びに、
複数の前記時点における前記感情の情報と前記画像とを関連付けて記憶すること、
を含む処理をコンピュータに実行させる画像処理装置の作動プログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022149484 | 2022-09-20 | ||
JP2022-149484 | 2022-09-20 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024062913A1 true WO2024062913A1 (ja) | 2024-03-28 |
Family
ID=90454233
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2023/032376 WO2024062913A1 (ja) | 2022-09-20 | 2023-09-05 | 画像処理装置、画像処理装置の作動方法、および画像処理装置の作動プログラム |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2024062913A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004178593A (ja) * | 2002-11-25 | 2004-06-24 | Eastman Kodak Co | 画像処理方法及びシステム |
JP2005063087A (ja) * | 2003-08-11 | 2005-03-10 | Sony Corp | 記録再生装置、再生装置、記録再生方法および再生方法 |
JP2011166405A (ja) * | 2010-02-09 | 2011-08-25 | Olympus Imaging Corp | 撮像装置および撮像方法 |
WO2015178078A1 (ja) * | 2014-05-22 | 2015-11-26 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2017092528A (ja) * | 2015-11-02 | 2017-05-25 | 株式会社Pfu | 撮影装置、撮影方法、画像管理システム、及びプログラム |
-
2023
- 2023-09-05 WO PCT/JP2023/032376 patent/WO2024062913A1/ja unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004178593A (ja) * | 2002-11-25 | 2004-06-24 | Eastman Kodak Co | 画像処理方法及びシステム |
JP2005063087A (ja) * | 2003-08-11 | 2005-03-10 | Sony Corp | 記録再生装置、再生装置、記録再生方法および再生方法 |
JP2011166405A (ja) * | 2010-02-09 | 2011-08-25 | Olympus Imaging Corp | 撮像装置および撮像方法 |
WO2015178078A1 (ja) * | 2014-05-22 | 2015-11-26 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2017092528A (ja) * | 2015-11-02 | 2017-05-25 | 株式会社Pfu | 撮影装置、撮影方法、画像管理システム、及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102100742B1 (ko) | 디지털 어시스턴트 서비스의 원거리 확장 | |
US20240054118A1 (en) | Artificial intelligence platform with improved conversational ability and personality development | |
US20190321726A1 (en) | Data mining, influencing viewer selections, and user interfaces | |
CN106464758B (zh) | 利用用户信号来发起通信 | |
US8847884B2 (en) | Electronic device and method for offering services according to user facial expressions | |
KR20200039030A (ko) | 디지털 어시스턴트 서비스의 원거리 확장 | |
US10860345B2 (en) | System for user sentiment tracking | |
KR20190053278A (ko) | 가상 공간에서의 사용자 상호작용을 위한 컨트롤 및 인터페이스 | |
KR102009426B1 (ko) | 사용자의 인터랙션에 따라 제어 또는 합성된 콘텐츠를 제공하는 방법 및 장치 | |
CN109240786B (zh) | 一种主题更换方法及电子设备 | |
US20220406033A1 (en) | Systems and Methods for Extracting Temporal Information from Animated Media Content Items Using Machine Learning | |
WO2017163509A1 (ja) | 情報処理システムおよび情報処理方法 | |
US10580188B2 (en) | Method of creating animated image based on key input, and user terminal for performing the method | |
JP2020529680A (ja) | 通話中の感情を認識し、認識された感情を活用する方法およびシステム | |
WO2024062913A1 (ja) | 画像処理装置、画像処理装置の作動方法、および画像処理装置の作動プログラム | |
JP6115976B1 (ja) | 情報処理機器、プログラム | |
US11301615B2 (en) | Information processing device using recognition difficulty score and information processing method | |
JP4858285B2 (ja) | 情報表示装置および情報表示処理プログラム | |
Bliss | Writing as Flat as a Photograph: Subjectivity in Annie Ernaux's La Place | |
WO2018166241A1 (zh) | 一种生成展示内容的方法与设备 | |
JP6622662B2 (ja) | 画像処理装置、画像処理方法、プログラムおよび記録媒体 | |
JP7307295B1 (ja) | コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム | |
JP7082440B1 (ja) | 音読データ生成システム | |
CN112000256B (zh) | 一种内容互动方法及装置 | |
JP2024001583A (ja) | 情報処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23868037 Country of ref document: EP Kind code of ref document: A1 |