JP2019121234A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2019121234A
JP2019121234A JP2018001342A JP2018001342A JP2019121234A JP 2019121234 A JP2019121234 A JP 2019121234A JP 2018001342 A JP2018001342 A JP 2018001342A JP 2018001342 A JP2018001342 A JP 2018001342A JP 2019121234 A JP2019121234 A JP 2019121234A
Authority
JP
Japan
Prior art keywords
image
specific object
processing apparatus
image processing
symbolic data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018001342A
Other languages
English (en)
Inventor
海妍 李
Kaiken Ri
海妍 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018001342A priority Critical patent/JP2019121234A/ja
Publication of JP2019121234A publication Critical patent/JP2019121234A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】画像を処理して画像の情報量を低減することが可能な画像処理装置を提供すること。【解決手段】本開示は、対象物52を撮像した画像51を取得する画像取得部11と、対象物52の中から特定対象物53を抽出する抽出部12と、特定対象物53の名称Nmと特定対象物53の位置情報Ptとを時刻Tに関連付けたシンボリックデータSdを作成する処理部13と、シンボリックデータSdを時系列に記憶し、画像51を削除する記憶部14と、備える画像処理装置10である。【選択図】図1

Description

本開示は、画像処理装置に関するものであり、特に、画像を処理して画像の情報量を低減することが可能な画像処理装置に関する。
動画像を含む画像情報を使用して得た情報を、ユーザに提供する情報提供サービスが知られている。この情報提供サービスにおいては、ユーザから要求があった場合、予め記憶しておいた画像情報の中から要求に見合う画像情報を抽出し、抽出した画像情報に対応する文字情報をユーザに提供する。このような情報提供サービスは、画像情報自体を記憶したまま保存するので、大容量のメモリが必要になるという問題があった。
特許文献1には、蓄積したビデオコンテンツから特徴のある画像または音声を抽出し、抽出した画像または音声から単語情報を取得するビデオ記録装置が開示されている。また、特許文献1には、カメラ付き端末装置で撮影(撮像)した画像から得た単語情報をクラスタリングし、分類された単語情報を取得するビデオ記録装置が開示されている。また、特許文献1には、分類された単語情報と、画像または音声から取得された単語情報と、に基づいて、蓄積したビデオコンテンツから関連するビデオコンテンツを検索するビデオ記録装置が開示されている。
特開2014−006680号公報
しかしながら、特許文献1のビデオ記録装置は、ビデオコンテンツや撮影した画像をメモリに記憶するため、大容量のメモリが必要になるという問題があった。
本開示は、上記の問題に鑑みてなされたものであり、画像を処理して画像の情報量を低減することが可能な画像処理装置を提供することを目的とする。
本開示は、
対象物を撮像した画像を取得する画像取得部と、
前記対象物の中から特定対象物を抽出する抽出部と、
前記特定対象物の名称と前記特定対象物の位置情報とを時刻に関連付けたシンボリックデータを作成する処理部と、
前記シンボリックデータを時系列に記憶し、前記画像を削除する記憶部と、
備える、画像処理装置である。
このような画像処理装置によれば、対象物の中から抽出した特定対象物の名称と位置情報とを時刻に関連付けたシンボリックデータのみを記憶するので、情報量を低減することができる。
本開示によれば、画像を処理して画像の情報量を低減することが可能な画像処理装置を提供することができる。
実施の形態に係る画像処理装置を例示するブロック図である。 実施の形態1に係る画像処理装置の動作を例示するフローチャートである。 対象物を含む画像を例示する模式図である。 対象物を含む画像を例示する模式図である。 対象物を含む画像を例示する模式図である。 実施の形態1に係る画像処理装置のシンボリックデータを例示する模式図である。
以下、図面を参照して本開示の実施の形態について説明する。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明を省略する。
[実施の形態1]
ロボットと人とが共生するような社会では、ロボットは、人と共生するために人の生活を理解する必要がある。このため、ロボットは、人の生活の履歴(ライフログ)を取得する。ロボットは、例えば、ロボット自身が有する画像処理装置を使用して、人のプライベートな環境下でのライフログを取得する。実施の形態1においては、画像処理装置を1つの例に挙げて説明する。
図1は、実施の形態1に係る画像処理装置を例示するブロック図である。
図1に示すように、画像処理装置10は、画像取得部11と抽出部12と処理部13と記憶部14と表示部15とを備える。このような画像処理装置10を有するロボットは、例えば、自宅内等のプライベートな空間を含む場所に設置される。
画像取得部11は、カメラ等を使用して対象物52を撮像した画像51を取得する。画像51には、例えば、動画像や静止画像だけでなく、音声も含むものとする。画像取得部を入力機と称することもある。
抽出部12は、画像51に対して物体認識を行い、画像51の中から少なくとも1つ以上の対象物52を抽出する。一方で、ユーザが、例えば、トラッキングすべき物を特定対象物53として予め画像処理装置10に登録しておく。
具体的には、ユーザは、トラッキングすべき物として、家の中に持ち込む物であり大切な物である「key」を特定対象物53aとして画像処理装置10に登録する。また、ユーザは、「wallet」を特定対象物53bとして登録し、「cellphone」を特定対象物53cとして登録する。特定対象物53aと特定対象物53bと特定対象物53cとを総称して特定対象物53と称する。
抽出部12は、対象物52の中から、予め登録された特定対象物53を抽出する。抽出部12は、このようにして対象物52の中から特定対象物53を抽出する。抽出部12は、特定対象物53のそれぞれにラベリングを行う。ラベリングとは、特定対象物53に対して名称Nmを付与することである。抽出部を物体認識機と称することもある。
処理部13は、特定対象物53の名称Nmと特定対象物53の位置情報Ptとを時刻Tに関連付けたシンボリックデータSdを作成する。すなわち、特定対象物53の画像情報(画像データ)を、特定対象物53のシンボリックデータSdに変換する。シンボリックデータSdは、特定対象物53の名称Nmと特定対象物53の位置情報Ptとを時刻Tに関連付けて、これらを1つの組としたテキストデータである。
尚、画像処理装置10は、情報を処理するためのプロセッサを有し、該プロセッサが処理部13の処理を行ってもよい。
表示部15は、特定対象物53のシンボリックデータSdを表示する。複数の特定対象物53が存在する場合、全ての特定対象物53のシンボリックデータSdを表示する。表示部15は、シンボリックデータSdのうちの任意の特定対象物53aのシンボリックデータSdaを強調して表示してもよい。複数の特定対象物53のシンボリックデータSdをシンボリックデータリストと称することもある。
記憶部14は、特定対象物53のシンボリックデータSdを時系列に記憶する。一方で、記憶部14は、画像取得部11が取得し、不必要となった画像51を削除する。
記憶部14に記憶するシンボリックデータSdは、例えば、テキストデータであり、シンボリックデータSdの情報量は、画像51の情報量よりも少ない。画像処理装置10は、情報量が画像51よりも少ないシンボリックデータSdのみを記憶し、不必要となった画像51を削除するので、記憶部14に記憶する情報量を低減することができる。
実施の形態1に係る画像処理装置の動作について説明する。
図2は、実施の形態1に係る画像処理装置の動作を例示するフローチャートである。
図3Aは、対象物を含む画像を例示する模式図である。
図3Aは、タイムスタンプが2017年09月09日08時09分22秒の時の画像である。
図3Bは、対象物を含む画像を例示する模式図である。
図3Bは、タイムスタンプが2017年09月09日08時09分28秒の時の画像である。
図3Cは、対象物を含む画像を例示する模式図である。
図3Cは、タイムスタンプが2017年09月09日08時22分22秒の時の画像である。
図4は、実施の形態1に係る画像処理装置のシンボリックデータを例示する模式図である。
図4において、「Timestamp」は時刻Tを示し、「object」は特定対象物53の名称Nmを示し、「location」は特定対象物53の位置情報Ptを示す。
図2に示すように、画像処理装置10の画像取得部11は、カメラ等を使用して対象物52を撮像した画像51を取得する(ステップS101)。
画像処理装置10の抽出部12は、対象物52の中から特定対象物53を抽出する(ステップS102)。抽出部12は、対象物52の中から、トラッキングすべき物として予め登録しておいた特定対象物53を抽出する。
特定対象物53は、例えば、図3Aに示す「key」と、「wallet」と、「cellphone」である。ここでは、「key」を特定対象物53aとし、「wallet」を特定対象物53bとし、「cellphone」を特定対象物53cとして抽出されたものとする。
画像処理装置10の処理部13は、特定対象物53の名称Nmと特定対象物53の位置情報Ptとを時刻Tに関連付けたシンボリックデータSdを作成する(ステップS103)。特定対象物53aである「key」のシンボリックデータSdaは、例えば、図4に示す部分B1に示すデータである。
画像処理装置10は、複数の特定対象物53の相対位置の関係から、それぞれの位置情報Ptを取得する。具体的には、画像取得部11がカメラ等を使用して、2017年09月09日08時09分22秒の時点の画像51(図3A参照)を取得する。画像51の中で、「key」は、ダイニングのtableの上に置かれている。よって、画像処理装置10は、「key」の位置情報Ptは、「on table@Dinning」と認識する。また、画像処理装置10は、例えば、時計機能を有し、該時計機能を使用して時刻Tを取得する。
画像処理装置10の記憶部14は、図4に示すように、特定対象物53のシンボリックデータSdを時系列に記憶する(ステップS104)。画像51の中から対象物52を認識し、対象物52の中から抽出した特定対象物53の履歴をテキスト等のシンボリックデータSdとして記憶することで、大量の画像情報を全て記憶することなく、特定対象物53の移動や場所の履歴を記憶することができる。記憶部14は、大量の動画等を含む画像51をそのままで記憶することなく、対象物52の移動履歴を記憶する(ログ化する)ことができる。
画像処理装置10の記憶部14は、シンボリックデータSd以外のデータ、すなわち、画像51のデータを削除する(ステップS105)。
実施の形態1においては、図3Aに示す画像51は、図4に示す部分Bに示すシンボリックデータSdに変換される。同様に、図3Bに示す画像51は、図4に示す部分Cに示すシンボリックデータSdに変換され、図3Cに示す画像51は、図4に示す部分Dに示すシンボリックデータSdに変換される。そして、画像51は削除される。
このように、実施の形態1においては、大量の動画像や静止画像や音声等を含む画像51を削除することで、記憶する情報量を低減することができる。
また、シンボリックデータSdとして記憶する情報量を低減するので、必要な情報を検索するための時間を短縮することができる。
特に、大量の映像や画像の中から特定の情報を検索することは、タグ付けをしていない場合、内容を確認しながら検索するので多くの時間がかかる。実施の形態1においては、このような場合でも、必要な情報をシンボリックデータSdに変換し記憶するので、例えば、テキスト検索等と同様な簡易な方法で情報を検索することができる。
また、図4に示すように、特定対象物53aである「key」は、タイムスタンプが2017年09月09日08時09分22秒の時点では、ダイニングのテーブル上に置かれていた。また、「key」は、タイムスタンプが2017年09月09日08時22分22秒の時点では、玄関の椅子の上に置かれていた。
このように、特定対象物53aである「key」に着目すると、keyの置かれた場所(位置情報)の移動履歴がわかるので、keyを紛失した場合、シンボリックデータSdを確認することでkeyを探すことができる。
また、画像処理装置10がシンボリックデータSdを検索し、keyを紛失したユーザに対してkeyの場所を提案(表示)することもできる。例えば、図4に示すシンボリックデータSdにおいて、最後(タイムスタンプが2017年09月09日08時22分22秒の時点)のkeyの位置情報Ptは、玄関の椅子の上(on chair@Entrance)である。よって、画像処理装置10は、ユーザに対して、玄関の椅子の上(on chair@Entrance)を探すように提案することができる。
また、図4に示すシンボリックデータSdにおいて、タイムスタンプが2017年09月09日08時09分22秒の時点のkeyの位置情報Ptは、ダイニングテーブルの上(on table@Dinning)である。よって、画像処理装置10は、ユーザに対して、ダイニングテーブルの上(on table@Dinning)も探すように提案することができる。画像処理装置10は、keyの移動履歴に基づいて、keyを探しているユーザに対して、2〜3程度の場所候補を提案することができる。
これにより、ユーザは、例えば、家の中を無作為に探し回る必要が無くなり、効率よくkeyを見つけることができる。また、画像処理装置10は、keyの情報が移動履歴に無かった場合、過去の履歴から続計的に存在確率が高い場所を見つけ、それらを順番に提案することもできる。
実施の形態1においては、対象物を撮像した画像の中から特定対象物を抽出し、名称と位置情報とを時刻に関連付けて1つの組にしたシンボリックデータのみを記憶する。記憶するデータがシンボリックデータのみなので、例えば、動画像をそのまま記憶する方法と比べて、記憶する情報量(データ量)が少ない。
その結果、画像を処理して画像の情報量を低減することが可能な画像処理装置を提供することができる。
一般的に、動画像を有するライフログにおいて特定対象物を検索する場合、膨大な移動履歴データを時間の逆方向に遡って検索する必要があるため、検索は非常に時間がかかる。これに対して実施の形態1は、名称と位置情報と時刻という少なくとも3つの情報を有するシンボリックデータにより特定対象物の移動履歴を把握することができる。シンボリックデータの情報量は、動画像の情報量よりも少ないので、必要な情報を検索する時間を短縮することができる。
また、実施の形態1においては、特定対象物の名称と位置情報(置かれている場所)とを時刻に関連付けたシンボリックデータの移動履歴を、例えば、ロボットサービス(アプリケーション)に提供することもできる。ロボットサービスは、人(ユーザ)が屋内等で物探しをしている場合、特定対象物の移動履歴を使用して探すべき場所を提案することで、物探しサービスを提供することができる。尚、ロボットは、遠隔操作や自律制御などの制限は設けなくてよい。また、ロボットが移動する場合、その移動手段(移動種類)に制限も無い。
また、ロボット(画像処理装置)は、シンボリックデータを蓄積することで、統計的に学習したり、対象物の置かれた場所を推定することができる。
また、実施の形態1においては、情報量を低減することができるので、その分だけ記憶部の容量を低減して大容量のメモリ(ストレージ)を用意する必要が無いので低コストでシステムを運用することができる。
また、実施の形態1においては、シンボリックデータを作成後、直ちに元の画像や音声の情報を削除する。元の画像や音声には、家庭内の音声や生活音等が含まれており、個人的な情報であって開示したくない情報が含まれる場合がある。実施の形態1は、元の画像や音声の情報を削除するので、プライパシーの侵害を低減することができる。これにより、社会的受容性を高めることができる。
[実施の形態2]
実施の形態2は、実施の形態1と比べて、処理部13がシンボリックデータSdから、特定対象物53が所定の場所に存在する存在確率を算出する点が異なる。
実施の形態2に係る画像処理装置20は、シンボリックデータSdから、特定対象物53が所定の場所に存在する存在確率を算出する。画像処理装置20は、特定対象物53の存在確率の移動履歴をオンラインで学習し、特定対象物53の存在確率の遷移(遷移確率)に基づいて、家庭内に固有の片付けすべき場所や片付け方法を提案する。
具体的には、画像処理装置20は、特定対象物53aが「key」の場合、keyのシンボリックデータSdから、keyの存在確率を算出する。画像処理装置20は、算出したkeyの存在確率に基づいて、keyが通常存在する場所(いつもの場所)に片づけることを、ユーザに対して提案する。
例えば、最近の数か月間におけるkeyの存在確率の分布が以下のような場合がある。
keyがダイニングの机の上(on table@ Dining)に存在する存在確率が、0.04。
keyが玄関のトレイの中(in tray@Entrance)に存在する確率が、0.80。
keyが玄関の椅子の上(on chair@Entrance)に存在する確率が、0.15。
keyがキッチンのカウンタの上(on counter@Kitchen)に存在する確率が、0.01。
keyの存在確率の分布がこのような分布の場合において、keyの片づけを指示されると、画像処理装置20は、keyが玄関のトレイの中に存在する確率が最も高いので、keyを玄関のトレイに移動することを提案する。提案先は、ユーザに対してでもよいし、又は、ロボットに対してでもよい。
ここでは、ロボット自身が画像処理装置20を有するものとする。ロボットは、ロボット自身が有する画像処理装置20からの指示に従って、keyを玄関のトレイに移動させkeyを片付ける。
また、画像処理装置20は、特定対象物53dが「cup」の場合、食卓上のcupはシンクで洗浄されるためシンクを通ってから、食器棚の所定の位置に戻るという遷移が最も確率が高いことを、シンボリックデータSdの移動履歴から学習する。そして、画像処理装置20は、cupが現在食卓上に存在する場合、次の行動としてシンクに運ぶという行動を、ユーザに対して提案する。画像処理装置20は、シンクに運ぶという行動を、ロボットに対して指示してもよい。
このように、画像処理装置20は、ユーザ毎にカスタマイズされたシンボリックデータSd(抽出されたライフログ)を学習することで、片付けサービスやその他のサービスを、ユーザに対して提案することができる。
実施の形態2においては、特定対象物の名称と位置情報とを時刻に関連付けたシンボリックデータから算出された特定対象物53の存在確率の遷移(遷移確率)に基づいて、家庭内に固有の片付けすべき場所や片付け方法を提案する。提案先は、例えば、ロボットサービス(アプリケーション)でもよい。ロボットサービスは、ユーザが片付けをする場合、特定対象物の移動履歴を使用して片付け場所を提案する片付けサービスを提供することができる。
尚、ロボットサービスは、特定の場所に特定対象物を片付ける片付けサービスだけに限定されない。ロボットサービスは、ごみ箱の位置やごみの種類(リサイクル用)等の各家庭で異なる規則をオンラインで学習する。これにより、ロボットサービスは、ユーザが詳細な指示をしない場合でも、自律的に特定対象物の片付けを行うことができる。
尚、発開示は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
10、20…画像処理装置
11…画像取得部
12…抽出部
13、23…処理部
14…記憶部
15…表示部
51…画像
52…対象物
53、53a、53b、53c、53d…特定対象物
B、B1、C、D…部分
Nm…名称
Pt…位置情報
T…時刻
Sd、Sda、Sdb、Sdc…シンボリックデータ

Claims (1)

  1. 対象物を撮像した画像を取得する画像取得部と、
    前記対象物の中から特定対象物を抽出する抽出部と、
    前記特定対象物の名称と前記特定対象物の位置情報とを時刻に関連付けたシンボリックデータを作成する処理部と、
    前記シンボリックデータを時系列に記憶し、前記画像を削除する記憶部と、
    備える、画像処理装置。
JP2018001342A 2018-01-09 2018-01-09 画像処理装置 Pending JP2019121234A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018001342A JP2019121234A (ja) 2018-01-09 2018-01-09 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018001342A JP2019121234A (ja) 2018-01-09 2018-01-09 画像処理装置

Publications (1)

Publication Number Publication Date
JP2019121234A true JP2019121234A (ja) 2019-07-22

Family

ID=67306378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018001342A Pending JP2019121234A (ja) 2018-01-09 2018-01-09 画像処理装置

Country Status (1)

Country Link
JP (1) JP2019121234A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021006220A (ja) * 2019-06-28 2021-01-21 株式会社大一商会 遊技機
JP2021006217A (ja) * 2019-06-28 2021-01-21 株式会社大一商会 遊技機

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0993532A (ja) * 1995-09-26 1997-04-04 Canon Inc 撮像記録装置及び撮像記録システム
US20050271251A1 (en) * 2004-03-16 2005-12-08 Russell Stephen G Method for automatically reducing stored data in a surveillance system
JP2007079918A (ja) * 2005-09-14 2007-03-29 Matsushita Electric Ind Co Ltd 物品検索システム及び方法
JP2017033382A (ja) * 2015-08-04 2017-02-09 株式会社日本総合研究所 画像情報検索サーバ、画像情報検索方法、及び利用者端末

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0993532A (ja) * 1995-09-26 1997-04-04 Canon Inc 撮像記録装置及び撮像記録システム
US20050271251A1 (en) * 2004-03-16 2005-12-08 Russell Stephen G Method for automatically reducing stored data in a surveillance system
JP2007079918A (ja) * 2005-09-14 2007-03-29 Matsushita Electric Ind Co Ltd 物品検索システム及び方法
JP2017033382A (ja) * 2015-08-04 2017-02-09 株式会社日本総合研究所 画像情報検索サーバ、画像情報検索方法、及び利用者端末

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021006220A (ja) * 2019-06-28 2021-01-21 株式会社大一商会 遊技機
JP2021006217A (ja) * 2019-06-28 2021-01-21 株式会社大一商会 遊技機

Similar Documents

Publication Publication Date Title
JP5739895B2 (ja) ビデオセッションの自動ラベリング
CN106663109B (zh) 针对移动屏上内容提供自动动作
US8370358B2 (en) Tagging content with metadata pre-filtered by context
US20190361857A1 (en) Method and system for associating data from different sources to generate a person-centric space
CN102542249A (zh) 视频内容中的脸部识别
US20090144056A1 (en) Method and computer program product for generating recognition error correction information
US10380256B2 (en) Technologies for automated context-aware media curation
WO2014144948A1 (en) Visible audiovisual annotation of infrared images using a separate wireless mobile device
CN102625937A (zh) 用于对视觉查询作出响应的体系结构
CN102667763A (zh) 带有社交网络辅助的面部识别
KR102080149B1 (ko) 전자 장치에서 비정형 데이터에 기초한 에피소드 기억 식별 방법
GB2517944A (en) Locating objects using images from portable devices
CN105787028A (zh) 一种名片校对方法及系统
JP2019121234A (ja) 画像処理装置
Ramnath et al. AutoCaption: Automatic caption generation for personal photos
CN105590306B (zh) 相片日记
JP2010205121A (ja) 情報処理装置および携帯端末
US10123094B1 (en) Location-based movie identification systems and methods
US20090164512A1 (en) Method and Computer Program Product for Managing Media Items
US20190171734A1 (en) Information presentation device, information presentation system, and information presentation method
US20170097959A1 (en) Method and system for searching in a person-centric space
JP2008003972A (ja) メタデータ生成装置およびメタデータ生成方法
US20220083596A1 (en) Information processing apparatus and information processing method
KR101681625B1 (ko) 검색 대상 인식 기반 데이터 검색 방법, 이를 수행하는 데이터 검색 시스템, 및 이를 저장하는 기록매체
CN110008364B (zh) 图像处理方法、装置和系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220104