JP2011133988A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2011133988A5 JP2011133988A5 JP2009291129A JP2009291129A JP2011133988A5 JP 2011133988 A5 JP2011133988 A5 JP 2011133988A5 JP 2009291129 A JP2009291129 A JP 2009291129A JP 2009291129 A JP2009291129 A JP 2009291129A JP 2011133988 A5 JP2011133988 A5 JP 2011133988A5
- Authority
- JP
- Japan
- Prior art keywords
- face
- faces
- person
- tag
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Description
表示制御部21は、記憶部14の人物相関データベース41に記憶されているデータに基づき表示部11の表示を制御する。人物相関データベース41に記憶されるデータは、人物相関データ生成部23により生成される。人物相関データ生成部23は、グループ化部25によるグループ化の結果や、顔クラスタリング部26のクラスタリングの結果に基づいて、人物同士の相関に関するデータを生成する。グループ化部25は、画像解析部27の顔認識部31による画像に写っている人物(顔)の認識結果に基づき、人物同士のグループを作成する。
ステップS17において、タグが決定されると、その情報から人物相関データが生成され、人物相関データベース41に記憶される(ステップS18)。このようにして、人物相関データベース41は生成される。この人物相関データベース41のデータは、画像から抽出された人物同士が、どのような関係にあるかに関するデータである。
暫定近似直線は、次式(9)に基づいて算出される。
暫定近似曲線(interim-approxLine) l_interim :y=ax+b ・・・(9)
式(9)における係数a、係数bは、それぞれ、式(5)、式(6)に基づいて算出される。ただし、nは、この場合、処理対象とされた画像内の「可」顔の数とされる。
暫定近似曲線(interim-approxLine) l_interim :y=ax+b ・・・(9)
式(9)における係数a、係数bは、それぞれ、式(5)、式(6)に基づいて算出される。ただし、nは、この場合、処理対象とされた画像内の「可」顔の数とされる。
このような状況の場合、ステップS133において、距離L141と距離L143との差分値が算出される。この差分値は、0もしくは、0に近い小さい値となる。よって、ステップS134において、差分値は、平均顔サイズよりも小さいと判断される。このような場合、「可」顔141乃至146は、1つのグループとされる。
ステップS161において、基準となる第1番目の顔が、画像内の全ての「可」顔の中から1つ選択される。この選択は、ステップS81(図6、図7)の処理結果を用いて行われる。すなわちソートされた結果が用いられ、近似直線からの距離が小さい順に選択されることで行われる。後に、他の顔も順次、第1番目の顔とされるため、ステップS163において、全ての顔を第1番目の顔としたか否かが判断される処理がある。
一方、ステップS163において、全ての顔が第1番目の顔として処理が実行されたと判断された場合、ステップS164に処理が進められる。ステップS164において、ステップS163までの処理でグループが生成された場合、そのグループに関する情報として、グループ化に使用した近似直線が登録される。
ステップS163において、全ての顔を第1番目の顔としたか否かが判断される。このステップS163以降の処理は、既に説明したので、ここではその説明を省略する。ステップS164において、グループ化に使用した近似直線が登録されると、ステップS84(図6)に処理が進められる。
一方、ステップS332において、近似直線を利用したグループがあると判断された場合、ステップS333に処理が進められる。ステップS333において、処理対象とされるグループが選択される。ステップS334において、選択されたグループ内に含まれる顔の平均顔サイズが算出される。そして、ステップS335において、グループ化されていない「可」顔または「未定」顔のうちの1つの顔が選択され、処理対象に設定される。
一方、ステップS342において、全てのグループ化されていない「可」顔および「未定」顔を処理対象としたと判断された場合、ステップS343に処理が進められる。ステップS343において、全てのグループ化に使用した近似直線を処理対象としたか否かが判断される。ステップS343において、全てのグループ化した近似直線(全てのグループ)を処理対象としていないと判断された場合、ステップS343に処理が戻され、まだ処理対象とされていないグループが選択され、ステップS334以降の処理が繰り返される。
ステップS362において、グループ化されてない「可」顔が2以上あるか否かが判断される。この“座標の平均からの距離を利用したグループ化の処理”は、“孤立顔の近似直線グループへの追加処理”(ステップS84(図6))と異なり、「可」とのタグが付けられている「可」顔のみが処理対象とされ、「未定」とのタグが付けられた「未定」顔は、処理対象とされない。
例えば、集合候補Gcに第1番目の顔のみが登録されている状態のときであれば、第1番目の顔と追加顔との座標の平均値が算出される(算出されている座標平均が用いられる)。そして、集合候補Gc内には、第1番目の顔のみが登録されている状態なので、第1番目の顔と座標平均との距離が求められ、その距離が、距離の総和とされる。
ステップS388において、集合Gは空であるか否かが判断される。ステップS388において、集合Gが空ではないと判断された場合、ステップS389に処理が進められる。ステップS389において、集合G内の顔の数の合計と、集合候補Gc内の顔の数の合計が比較され、集合候補Gc内の顔の数の合計の方が、集合G内の顔の数の合計よりも大きいか否かが判断される。
ステップS389において、集合候補Gc内の顔の数の合計の方が、集合G内の顔の数の合計よりも大きくはないと判断された場合、換言すれば、同数、またはそれ以下であると判断された場合、ステップS390に処理が進められる。ステップS390において、集合G内の顔の数の合計と、集合候補Gc内の顔の数の合計が、同数であり、座標平均と各顔の距離の総和は、集合候補Gcの方が小さいか否かが判断される。
ステップS390において、集合G内の顔の数の合計と、集合候補Gc内の顔の数の合計が同数であり、座標平均と各顔の距離の総和は、集合候補Gcの方が小さいと判断された場合、ステップS391に処理が進められる。ステップS391には、ステップS388において、集合Gは空ではないと判断された場合、またはステップS389において、集合候補Gc内の顔の数の合計の方が、集合G内の顔の数の合計よりも大きくないと判断された場合にもくる。
ステップS368における処理で、集合Gが新規グループとして追加されることにより、その追加される集合Gに含まれる「可」顔は、グループ化された「可」顔になるため、ステップS362以降の処理の対象とはされなくなる。その結果、ステップS362において、グループ化されていない「可」顔が2個以上ないと判断された場合、換言すれば、グループ化されていない「可」顔が、1個または0個であると判断された場合、図17に示した“座標平均からの距離を利用したグループ化の処理”は終了され、ステップS86(図6)に処理が進められる。
図6のフローチャートの説明に戻る。ステップS85において、座標平均からの距離を利用したグループ化の処理が実行されることにより、グループ化されていない「可」顔の個数は、1個または0個となっている。1個の場合、まだグループ化されていない「可」顔が存在することになるため、ステップS86において、単独で残った顔のグループ化の処理が実行される。この“単独で残った顔のグループ化の処理”とは、グループに含まれていない顔を処理対象として、単独で残った顔をグループとする処理であり、顔のサイズが、顔のサイズの平均値に対して一定値以上の大きさがある顔を1つのグループとする処理である。
「グループ化の処理における単独で残った顔のグループ化の処理」
ステップS86において実行される単独で残った顔のグループ化の処理について、図19のフローチャートを参照して説明する。ステップS411において、グループ化されてない「可」顔があるか否かが判断される。この“単独で残った顔のグループ化の処理”は、「可」とのタグが付けられている「可」顔のみが処理対象とされ、「未定」とのタグが付けられた「未定」顔は、処理対象とされない。また、仮にグループ化されていない「可」顔が1つであった場合も処理が実行される。
ステップS86において実行される単独で残った顔のグループ化の処理について、図19のフローチャートを参照して説明する。ステップS411において、グループ化されてない「可」顔があるか否かが判断される。この“単独で残った顔のグループ化の処理”は、「可」とのタグが付けられている「可」顔のみが処理対象とされ、「未定」とのタグが付けられた「未定」顔は、処理対象とされない。また、仮にグループ化されていない「可」顔が1つであった場合も処理が実行される。
ステップS411において、グループ化されていない「可」顔はないと判断された場合、処理すべき「可」顔がないことを意味するため、図19に示したフローチャートの処理は終了される。
一方で、ステップS83乃至S85の各処理が実行されたが、グループが1つも生成されなかった場合、全ての「可」顔のサイズの平均値が、ステップS413において用いられる平均顔サイズとされる。この場合、全ての「可」顔の個数は1個である。これは、上述したように、ステップS362(図17)において、グループ化されていない「可」顔が2個以上ないと判断されたときに、ステップS86に処理が進められ、このステップS413の処理が実行されるため、この時点で、全ての「可」顔の個数は1個である。
よって、グループが1つも生成されていない状態で、ステップS413の処理が実行されるときには、平均顔サイズとは、1個の「可」顔のサイズとされる。
ステップS87の処理に関する説明の前に、ここまでの処理で作成されたグループについて、図20を参照して説明する。図20に示した処理対象とされた画像201には、顔211乃至227が撮像されている。図20中、顔の周りの四角形は、抽出された顔の範囲を示している。顔211乃至顔220は、ほぼ直線上に並んでいるため、“近似直線を用いたグループ化の処理”(図6のステップS83における処理)により、グループ化(グループAとする)される。ただし、顔216は、“孤立顔の近似直線への追加処理”(図6のステップS84の処理)によりグループAに追加される。同様に、顔221乃至顔225も、ほぼ直線上に並んでいるため、近似直線を用いたグループ化の処理(図6のステップS83における処理)により、グループ化(グループBとする)される。
テーブル321を参照することで、“ATR_FRIENDS_GROUP_ADULT”とのタグ名は、“グループ化あり”であり、“人数>2”かつ“ (ATR_MAN+ ATR_WOMAN) > Th2* ATR_CHILD”であるという条件が満たされるときのグループに対して付けられることがわかる。そして、これらの情報が満たされるとき、“ATR_FRIENDS_GROUP_ADULT”とのタグ名は、“友人3人以上(大人)”という意味であり、そのようなグループに対してはIDとして“30”が付けられることが、テーブル322を参照することでわかる。
テーブル321を参照することで、“ATR_FRIENDS_GROUP_CHILD”とのタグ名は、“グループ化あり”であり、“人数>2 ”かつ“ATR_CHILD > Th3* (ATR_MAN+ ATR_WOMAN)”であるという条件が満たされるときのグループに対して付けられることがわかる。そして、これらの情報が満たされるとき、“ATR_FRIENDS_GROUP_CHILD”とのタグ名は、“友人3人以上(子供)”という意味であり、そのようなグループに対してはIDとして“31”が付けられることが、テーブル322を参照することでわかる。
テーブル321を参照することで、“ATR_WOMAN”とのタグ名は、“個人追加時”であり、“adult - baby > Th7 adult > Th8 gender < Th9”であるという条件が満たされるときのグループに対して付けられることがわかる。そして、これらの情報が満たされるとき、“ATR_WOMAN”とのタグ名は、“女性”という意味であり、そのようなグループに対してはIDとして“52”が付けられることが、テーブル322を参照することでわかる。なお、Th7、Th8、Th9は、それぞれ所定の閾値である。
同様に、顔361と顔363は、第1階層と第2の階層にそれぞれ属するため、Ntreeは、“1”である。よって、このNtree=1を、式(13)に代入すると、“1”というScorefが算出される。よって、顔361と顔363の距離スコアは、1である。図26Cに示した表391では、顔IDとして“361”と顔IDとして“363”が交わる欄には、距離スコアとして“1”との数値が書き込まれる。また、顔361と顔363は、“友達”というタグが付けられているので、“Friend”とのタグ名が書き込まれている。
同様に、顔361と顔364は、第1階層と第3の階層にそれぞれ属するため、Ntreeは、“2”である。よって、このNtree=2を、式(13)に代入すると、“0.5”というScorefが算出される。よって、顔361と顔364の距離スコアは、0.5である。図26Cに示した表391では、顔IDとして“361”と顔IDとして“364”が交わる欄には、距離スコアとして“0.5”との数値が書き込まれる。また、顔361と顔364は、“友達”というタグが付けられているので、“Friend”とのタグ名が書き込まれている。
同様に、顔362と顔364は、第1階層と第3の階層にそれぞれ属するため、Ntreeは、“2”である。よって、このNtree=2を、式(13)に代入すると、“0.5”というScorefが算出される。よって、顔362と顔364の距離スコアは、0.5である。図26Cに示した表391では、顔IDとして“362”と顔IDとして“364”が交わる欄には、距離スコアとして“0.5”との数値が書き込まれる。また、顔362と顔364は、“友達”というタグが付けられているので、“Friend”とのタグ名が書き込まれている。
表421において、顔IDとして“361”と顔IDとして“364”が交わる欄には、親密度スコアとして“1”との数値が書き込まれ、“Friend”というタグが付けられている。これは、顔361と顔364の距離スコアは、表391では“0.5”であり、表411では“0.5”であるため、それらの値が加算された“1”が、親密度スコアとして表421に書き込まれるからである。また、顔361と顔364のタグは、表391、表411ともに“Friend”であるため、この1つのタグが表421に書き込まれるからである。
表421において、顔IDとして“361”と顔IDとして“364”が交わる欄には、親密度スコアとして“1”との数値が書き込まれ、“Friend”というタグが付けられている。これは、顔361と顔364の距離スコアは、表391では“0.5”であり、表411では“0.5”であるため、それらの値が加算された“1”が、親密度スコアとして表421に書き込まれるからである。また、顔361と顔364のタグは、表391、表411ともに“Friend”であるため、この1つのタグが表421に書き込まれるからである。
表421において、顔IDとして“362”と顔IDとして“363”が交わる欄には、親密度スコアとして“2”との数値が書き込まれ、“Friend”というタグが付けられている。これは、顔362と顔363の距離スコアは、表391では“1”であり、表411では“1”であるため、それらの値が加算された“2”が、親密度スコアとして表421に書き込まれるからである。また、顔362と顔363のタグは、表391、表411ともに“Friend”であるため、この1つのタグが表421に書き込まれるからである。
表421において、顔IDとして“362”と顔IDとして“364”が交わる欄には、親密度スコアとして“1.5”との数値が書き込まれ、“Friend”というタグが付けられている。これは、顔362と顔364の距離スコアは、表391では“0.5”であり、表411では“1”であるため、それらの値が加算された“1.5”が、親密度スコアとして表421に書き込まれるからである。また、顔362と顔364のタグは、表391、表411ともに“Friend”であるため、この1つのタグが表421に書き込まれるからである。
表421において、顔IDとして“363”と顔IDとして“364”が交わる欄には、親密度スコアとして“1.5”との数値が書き込まれ、“Friend”というタグが付けられている。これは、顔363と顔364の距離スコアは、表391では“1”であり、表411では“0.5”であるため、それらの値が加算された“1.5”が、親密度スコアとして表421に書き込まれるからである。また、顔363と顔364のタグは、表391、表411ともに“Friend”であるため、この1つのタグが表421に書き込まれるからである。
テーブル451は、タグ名と、そのタグ名が付けられているタグに乗算する係数が関連付けられて管理されているテーブルである。図28に示したテーブル451を参照するに、“Couple”というタグ名には、“1.5”という係数が関連付けられている。“Parent Child”というタグ名には、“1.5”という係数が関連付けられている。“Family”というタグ名には、“1.2”という係数が関連付けられている。“Friend”というタグ名には、“1.0”という係数が関連付けられている。
顔画像611には、紐621と紐622が張られている。紐は、顔画像同士(人物同士)が何らかの関係があることを示す。また、親密度が高い顔画像同士の紐は短く、親密度が高くない顔同士の紐は長く表示されるようにしても良い。顔画像611と顔画像612との間には、紐621が張られ、その間柄を表すタグとして、タグ641が紐621の近傍に表示されている。このタグ641の情報は、データ503から抽出された情報である。具体的には、例えば、顔画像611の人物IDが“001”であり、顔画像612の人物IDが“002”である場合、データ503が参照されることで、タグが“Couple”であることがわかる。そしてこのタグの情報から、タグ641の画像が生成され、顔画像611と顔画像612との間に張られた紐621の近傍に表示される。
顔画像611と顔画像615の間には、紐625が張られ、その間柄を表すタグとして、“Parent”とのタグ644が紐625の近傍に表示されている。この場合、顔画像611の人物と、顔画像615の人物は、親子関係があることがわかり、かつ、その親子関係は、顔画像611の人物を中心として考えた場合、顔画像615の人物は親にあたることがわかる。すなわち、中心人物が、顔画像611の人物であるため、顔画像611の人物に対して、顔画像613の人物は子であり、顔画像615の人物は親となる。
このような状態から、撮影者が、さらに顔画像614から顔画像612の方にドラッグなどの所定の操作を実行すると、図33に示すように、顔画像612と顔画像614との間に紐624が表示され、さらに“Friend”というタグ643も表示される。このように、撮影者は、顔画像にリンクを張りたいとき、ツール表示部602から所望の紐661乃至664を選択し、顔画像同士を接続するような所定の操作を実行することで、リンクを張ることが可能な構成とされている。
図34に示したフローチャートは、図31を参照して説明した紐の削除(リンクの削除)が行われたときに実行される処理について説明するためのフローチャートである。紐が削除される操作が実行されたと判断された場合、ステップS511において、2つの人物IDをキーに、対応するデータが検索される。例えば、図31に示した例では、顔画像612と顔画像614との間の紐624(タグ643)が削除される操作が実行されたときであるので、この顔画像612に対応する人物IDと、顔画像614に対応する人物IDとがキーにされる。
まず、図37のフローチャートを参照して、個別の顔の追加処理について説明する。個別の顔の追加処理とは、例えば、相関画像表示部601内に表示されている同一の人物の顔画像が2以上表示されている場合、換言すれば、誤った判断により同一人物であるのに、異なる人物として処理されているような場合、ユーザにより同一の人物として扱われるように修正が入ったときの処理である。また、相関画像表示部601に表示されていないが、表示させたい顔(顔画像)があるときに、その顔が追加される処理でもある。
ステップS601において、ユーザにより指定された顔(顔画像)が、人物IDを持つか否かが判断される。ステップS601において、ユーザにより指定された顔が人物IDを持つと判断された場合、ステップS602に処理が進められる。ステップS602において、反映されている、元の人物IDが存在するという情報が更新される。すなわち、ユーザにより指定された顔に対応する人物IDに関する情報が更新される。
次に、図38のフローチャートを参照して、人物間の追加処理について説明する。人物間の追加処理とは、人物間の関係性を100%の精度で判定することはできない可能性であり、そのためにまずは、上記したようにして人物相関に関するデータを生成し、その後、ユーザにより関係の追加や誤判定の削除を行えるようにするための処理である。
ステップS551において、分離が指示された顔が人物IDを持つか否かが判断される。ステップS651において、顔が人物IDを持つと判断された場合、ステップS652に処理が進められる。ステップS652において、反映されている、元の人物IDが存在するという情報が修正される。すなわち、ユーザにより指定された顔に対応する人物IDに関する情報が修正される。
このようにして、顔の識別精度は100%の制度ではないのが一般的であり、そのために、間違いが発生する可能性がある。そのような間違いをユーザにより訂正できることで、より精度の高い人物相関に関する情報を生成させることが可能となる。
すなわち、顔クラスタリング部26は、まず、イベントクラスタリング部801の処理結果から、同一のイベントの画像の画像IDを取得する。そして、顔クラスタリング部26は、顔認識処理の結果から、イベント単位で該当する画像IDの顔識別特徴量および顔IDを取得し、顔識別特徴量同士の類似度を用いて同一イベント内の写真に写っている同一人物ごとにグルーピングを行なう。
このような処理が実行されることで、イベント毎に、画像毎に、人物が生成され、同一人物が同一人物として扱われる状態となる。そのような状態になると、ステップS810において、人物間の親密度の算出処理が実行される。このステップS808乃至S810の各処理は、図2に示したフローチャートのステップS15乃至S17の各処理と同様に行われ、その詳細な説明は既にしたので、ここではその説明を省略する。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009291129A JP5434569B2 (ja) | 2009-12-22 | 2009-12-22 | 情報処理装置および方法、並びにプログラム |
US12/908,273 US8682084B2 (en) | 2009-12-22 | 2010-10-20 | Information processing device, method, and program |
CN2010105875355A CN102103697B (zh) | 2009-12-22 | 2010-12-14 | 信息处理设备和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009291129A JP5434569B2 (ja) | 2009-12-22 | 2009-12-22 | 情報処理装置および方法、並びにプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011133988A JP2011133988A (ja) | 2011-07-07 |
JP2011133988A5 true JP2011133988A5 (ja) | 2012-12-27 |
JP5434569B2 JP5434569B2 (ja) | 2014-03-05 |
Family
ID=44151208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009291129A Expired - Fee Related JP5434569B2 (ja) | 2009-12-22 | 2009-12-22 | 情報処理装置および方法、並びにプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US8682084B2 (ja) |
JP (1) | JP5434569B2 (ja) |
CN (1) | CN102103697B (ja) |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9210313B1 (en) | 2009-02-17 | 2015-12-08 | Ikorongo Technology, LLC | Display device content selection through viewer identification and affinity prediction |
US10706601B2 (en) | 2009-02-17 | 2020-07-07 | Ikorongo Technology, LLC | Interface for receiving subject affinity information |
US9727312B1 (en) | 2009-02-17 | 2017-08-08 | Ikorongo Technology, LLC | Providing subject information regarding upcoming images on a display |
US8503739B2 (en) * | 2009-09-18 | 2013-08-06 | Adobe Systems Incorporated | System and method for using contextual features to improve face recognition in digital images |
US8630494B1 (en) | 2010-09-01 | 2014-01-14 | Ikorongo Technology, LLC | Method and system for sharing image content based on collection proximity |
US9552376B2 (en) | 2011-06-09 | 2017-01-24 | MemoryWeb, LLC | Method and apparatus for managing digital files |
CN102902674B (zh) * | 2011-07-26 | 2017-09-26 | 腾讯科技(深圳)有限公司 | 服务群组分类方法和系统 |
US9497249B2 (en) | 2011-08-08 | 2016-11-15 | Sony Corporation | Information processing apparatus, information processing method, program, and information processing system |
US9195679B1 (en) | 2011-08-11 | 2015-11-24 | Ikorongo Technology, LLC | Method and system for the contextual display of image tags in a social network |
KR101942211B1 (ko) * | 2011-09-12 | 2019-01-24 | 인텔 코포레이션 | 공유된 장치 및 개인용 장치를 이용한 개인맞춤화된 사용자 기능의 협력적 제공 |
JP5764473B2 (ja) * | 2011-11-17 | 2015-08-19 | 株式会社日立製作所 | イベントデータ処理装置 |
JP6012308B2 (ja) * | 2012-07-09 | 2016-10-25 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US10032233B2 (en) | 2012-10-17 | 2018-07-24 | Facebook, Inc. | Social context in augmented reality |
US20140108501A1 (en) * | 2012-10-17 | 2014-04-17 | Matthew Nicholas Papakipos | Presence Granularity with Augmented Reality |
US10038885B2 (en) | 2012-10-17 | 2018-07-31 | Facebook, Inc. | Continuous capture with augmented reality |
CN105074641A (zh) * | 2013-04-01 | 2015-11-18 | 索尼公司 | 显示控制装置、显示控制方法和显示控制程序 |
KR101348142B1 (ko) | 2013-09-14 | 2014-01-07 | 주식회사 코어셀 | 얼굴인식기술을 이용하여 분류된 개인 또는 그룹 유형별 맞춤형 콘텐츠 제공 방법 및 그러한 시스템 |
US10037345B2 (en) * | 2014-03-14 | 2018-07-31 | Xiaomi Inc. | Clustering method and device |
US10642864B2 (en) | 2014-03-18 | 2020-05-05 | Nec Corporation | Information processing device and clustering method |
JP6423173B2 (ja) * | 2014-05-23 | 2018-11-14 | 株式会社タレンティオ | 人脈情報蓄積装置、人脈情報蓄積方法、およびプログラム |
EP2981063B1 (en) * | 2014-07-31 | 2020-03-04 | Samsung Electronics Co., Ltd | Method of modifying image including photographing restricted element, and device for performing the method |
CN104133899B (zh) * | 2014-08-01 | 2017-10-13 | 百度在线网络技术(北京)有限公司 | 图片搜索库的生成方法和装置、图片搜索方法和装置 |
CN105608098A (zh) * | 2015-07-31 | 2016-05-25 | 宇龙计算机通信科技(深圳)有限公司 | 信息提取方法、信息提取装置和终端 |
CN105069075B (zh) * | 2015-07-31 | 2018-02-23 | 小米科技有限责任公司 | 照片共享方法和装置 |
JP6440604B2 (ja) * | 2015-09-29 | 2018-12-19 | 富士フイルム株式会社 | 被写体評価システム,被写体評価方法,被写体評価プログラムおよびそのプログラムを格納した記録媒体 |
US10372989B2 (en) * | 2015-10-30 | 2019-08-06 | Canon Kabushiki Kaisha | Control apparatus and control method for determining relation of persons included in an image, and storage medium storing a program therefor |
US10242034B1 (en) * | 2015-12-28 | 2019-03-26 | Amazon Technologies, Inc. | Intelligent selection of images to create image narratives |
CN105808668A (zh) * | 2016-02-29 | 2016-07-27 | 北京小米移动软件有限公司 | 信息的输出方法及装置 |
JP6964132B2 (ja) | 2016-09-28 | 2021-11-10 | マジック リープ, インコーポレイテッドMagic Leap, Inc. | ウェアラブルデバイスによる顔モデル捕捉 |
US11403686B1 (en) * | 2016-12-29 | 2022-08-02 | Wells Fargo Bank, N.A | Systems and methods for identifying a steward |
CN107609487B (zh) * | 2017-08-17 | 2021-01-22 | 北京三快在线科技有限公司 | 一种用户头像的生成方法和装置 |
CN107679466B (zh) * | 2017-09-21 | 2021-06-15 | 百度在线网络技术(北京)有限公司 | 信息输出方法和装置 |
KR101898648B1 (ko) * | 2018-01-02 | 2018-09-13 | 단국대학교 산학협력단 | 영상 등장 인물들 사이의 상호 작용 그룹 탐지를 위한 장치 및 방법 |
JP7004218B2 (ja) * | 2018-05-14 | 2022-01-21 | オムロン株式会社 | 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム |
JP2020008929A (ja) * | 2018-07-03 | 2020-01-16 | 富士ゼロックス株式会社 | 身長算出システム、情報処理装置およびプログラム |
CN109376581B (zh) * | 2018-09-03 | 2022-02-22 | 腾讯科技(武汉)有限公司 | 对象关系识别方法和装置、存储介质及电子装置 |
US11244162B2 (en) * | 2018-10-31 | 2022-02-08 | International Business Machines Corporation | Automatic identification of relationships between a center of attention and other individuals/objects present in an image or video |
CN109740510B (zh) * | 2018-12-29 | 2023-03-24 | 三星电子(中国)研发中心 | 用于输出信息的方法和装置 |
CN110263765A (zh) * | 2019-07-16 | 2019-09-20 | 图普科技(广州)有限公司 | 图像数据处理方法、装置及电子设备 |
US20210191975A1 (en) * | 2019-12-20 | 2021-06-24 | Juwei Lu | Methods and systems for managing image collection |
US11475616B2 (en) * | 2020-06-25 | 2022-10-18 | Google Llc | Automatic generation of people groups and image-based creations |
US11144767B1 (en) * | 2021-03-17 | 2021-10-12 | Gopro, Inc. | Media summary generation |
US20230252787A1 (en) * | 2022-02-04 | 2023-08-10 | Kevin James CANNONS | Systems, methods, and media for main group identification in images via social relation recognition |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AUPQ464099A0 (en) * | 1999-12-14 | 2000-01-13 | Canon Kabushiki Kaisha | Emotive editing system |
JP4517633B2 (ja) | 2003-11-25 | 2010-08-04 | ソニー株式会社 | 対象物検出装置及び方法 |
JP5025893B2 (ja) | 2004-03-29 | 2012-09-12 | ソニー株式会社 | 情報処理装置および方法、記録媒体、並びにプログラム |
JP4490214B2 (ja) * | 2004-09-10 | 2010-06-23 | 富士フイルム株式会社 | 電子アルバム表示システム、電子アルバム表示方法、及び電子アルバム表示プログラム |
US7580952B2 (en) * | 2005-02-28 | 2009-08-25 | Microsoft Corporation | Automatic digital image grouping using criteria based on image metadata and spatial information |
US7783135B2 (en) * | 2005-05-09 | 2010-08-24 | Like.Com | System and method for providing objectified image renderings using recognition information from images |
JP4232774B2 (ja) * | 2005-11-02 | 2009-03-04 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
JP2008165701A (ja) * | 2007-01-05 | 2008-07-17 | Seiko Epson Corp | 画像処理装置、電子機器、画像処理方法、及び、プログラム |
US7953690B2 (en) * | 2008-01-25 | 2011-05-31 | Eastman Kodak Company | Discovering social relationships from personal photo collections |
JP2011070275A (ja) * | 2009-09-24 | 2011-04-07 | Seiko Epson Corp | 画像処理装置 |
-
2009
- 2009-12-22 JP JP2009291129A patent/JP5434569B2/ja not_active Expired - Fee Related
-
2010
- 2010-10-20 US US12/908,273 patent/US8682084B2/en active Active
- 2010-12-14 CN CN2010105875355A patent/CN102103697B/zh not_active Expired - Fee Related
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011133988A5 (ja) | ||
WO2020182019A1 (zh) | 图像检索方法、装置、设备及计算机可读存储介质 | |
JP5434569B2 (ja) | 情報処理装置および方法、並びにプログラム | |
Qi et al. | Attentive relational networks for mapping images to scene graphs | |
JP6629678B2 (ja) | 機械学習装置 | |
Hoede et al. | PASTEC: an automatic transposable element classification tool | |
JP2018106662A (ja) | 情報処理装置、情報処理方法、プログラム | |
Saulnier et al. | Inferring epidemiological parameters from phylogenies using regression-ABC: A comparative study | |
CN110858327A (zh) | 验证训练数据的方法、训练系统以及计算机程序产品 | |
Dumitrache et al. | Capturing ambiguity in crowdsourcing frame disambiguation | |
US10482169B2 (en) | Recommending form fragments | |
JP6590086B2 (ja) | 情報処理システム、情報処理方法、及び、プログラム | |
JP2016184424A5 (ja) | ||
JP2018147392A (ja) | モデル学習装置、スコア計算装置、方法、データ構造、及びプログラム | |
CN111340054A (zh) | 数据标注方法、装置及数据处理设备 | |
WO2019205729A1 (zh) | 用于识别物体的方法、设备和计算机可读存储介质 | |
CN107193806B (zh) | 一种词汇义原的自动预测方法及装置 | |
CN115062208A (zh) | 数据处理方法、系统及计算机设备 | |
US20150332172A1 (en) | Learning method, information processing device, and recording medium | |
CN113111185A (zh) | 一种用于知识图谱补全任务的关键路径构建方法和系统 | |
US20220013194A1 (en) | Escape profiling for therapeutic and vaccine development | |
CN114240956A (zh) | 一种肺部ct影像管状结构分割方法、装置、电子设备 | |
CN110785753B (zh) | 用于搜索图像的方法、装置及存储介质 | |
JP2020126328A5 (ja) | ||
JP2016153949A (ja) | 情報処理装置、情報処理システム、情報処理方法、及びプログラム |