WO2012063560A1 - 画像処理システム、画像処理方法、及び画像処理プログラムを記憶した記憶媒体 - Google Patents

画像処理システム、画像処理方法、及び画像処理プログラムを記憶した記憶媒体 Download PDF

Info

Publication number
WO2012063560A1
WO2012063560A1 PCT/JP2011/071801 JP2011071801W WO2012063560A1 WO 2012063560 A1 WO2012063560 A1 WO 2012063560A1 JP 2011071801 W JP2011071801 W JP 2011071801W WO 2012063560 A1 WO2012063560 A1 WO 2012063560A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
gesture
image processing
persons
display
Prior art date
Application number
PCT/JP2011/071801
Other languages
English (en)
French (fr)
Inventor
ゆり子 檜山
智之 大坂
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US13/822,992 priority Critical patent/US20130241821A1/en
Priority to JP2012542844A priority patent/JP5527423B2/ja
Priority to CN2011800543360A priority patent/CN103201710A/zh
Publication of WO2012063560A1 publication Critical patent/WO2012063560A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06313Resource planning in a project environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F27/00Combined visual and audible advertising or displaying, e.g. for public address

Definitions

  • the present invention relates to a technique for informing information to an unspecified person.
  • the method according to the present invention comprises: An image display step for displaying an image on the image display means; An imaging step of capturing images of a plurality of persons gathered in front of the image display means; A gesture recognition step for recognizing a gesture made by each of the plurality of people from the image captured in the imaging step with respect to the image displayed on the image display means; Based on the recognition result in the gesture recognition step, a display control step for changing the display screen; It is provided with.
  • FIG. 2 is a block diagram illustrating a configuration of an image processing system 200 including the information processing apparatus 210 according to the second embodiment.
  • an independent information processing apparatus 210 is illustrated, but the present invention can be extended to a system in which a plurality of information processing apparatuses 210 are connected via a network.
  • the database is abbreviated as DB.
  • the RAM 340 includes a point table 345, and calculates and temporarily stores an overall tendency of gestures obtained by imaging a plurality of people 204 and points serving as a reference for selecting a specific person to be noted.
  • Reference numeral 421 denotes a hand ID for identifying each hand attached to the hand of an unspecified person who has been photographed.
  • Reference numeral 422 extracts the position of the hand, here the height.
  • Reference numeral 423 indicates a three-dimensional position of the thumb.
  • Reference numeral 424 denotes a three-dimensional position of the index finger.
  • Reference numeral 425 indicates a three-dimensional position of the middle finger.
  • Reference numeral 426 denotes a three-dimensional position of the little finger.
  • Reference numeral 427 denotes a person ID for identifying a person having this hand, and reference numeral 428 indicates the position of the person ID.
  • the position of the ring finger was excluded in the example of FIG. 4, this may be included.
  • accurate determination can be made by using not only the finger but also palm and back data and more specifically the joint position of the finger for the determination.
  • a gesture is determined by matching each data of FIG. 4 with the content of the gesture DB 215.
  • FIG. 5 is a diagram illustrating a configuration of the gesture DB 215 according to the second embodiment.
  • FIG. 5 also shows the contents of the DB for determining the “direction instruction” gesture in the upper stage 510 and the contents of the DB for determining the “Janken” gesture in correspondence with FIG. “Sign language” is also provided separately.
  • the attribute determination module 858 is a program module that determines an attribute of each person or a group of a plurality of persons using the person recognition DB 817 and generates an attribute determination table 801. It is determined what attributes (age, sex, etc.) each person making a gesture in the captured image has, or what attributes (couple, parent-child, friend, etc.) the group has.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Quality & Reliability (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Game Theory and Decision Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Development Economics (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

 複数人に対して画像を表示する装置であって、その画像を見ている人物にとって、より操作性の良い画像処理装置に関するものである。画像を表示する画像表示手段と、前記画像表示手段の前に集まった複数人の画像を撮像する撮像手段と、前記画像表示手段に表示された画像に対して、前記複数人のそれぞれが行なったジェスチャーを、前記撮像手段で撮像した画像から認識するジェスチャー認識手段と、前記ジェスチャー認識手段による認識結果に基づいて、表示画面を遷移させる表示制御手段と、を備えたことを特徴とする。

Description

画像処理システム、画像処理方法、及び画像処理プログラムを記憶した記憶媒体
 本発明は、不特定の人物に情報を報知するための技術に関する。
 不特定の人物に情報を報知する表示システムとして、デジタルサーネージを用いたシステムが知られている。たとえば、特許文献1には、カメラによる撮影画像から求めた注目時間と画面からの距離とに基づいて表示画面への注目度を判定し、注目している人物に応じた情報を報知する技術が開示されている。
特開2009-176254号公報
 しかしながら、上記特許文献1に記載のデジタルサイネージは、複数人に画像を表示する仕組みでありながら、その操作は、一人のユーザが画面にタッチすることによって行なわれていた。つまり、ユーザにとって操作性がよいものではなかった。
 本発明の目的は、上述の課題を解決する技術を提供することにある。
 上記目的を達成するため、本発明に係るシステムは、
 画像を表示する画像表示手段と、
 前記画像表示手段の前に集まった複数人の画像を撮像する撮像手段と、
 前記画像表示手段に表示された画像に対して、前記複数人のそれぞれが行なったジェスチャーを、前記撮像手段で撮像した画像から認識するジェスチャー認識手段と、
 前記ジェスチャー認識手段による認識結果に基づいて、表示画面を遷移させる表示制御手段と、
 を備えたことを特徴とする。
 上記目的を達成するため、本発明に係る装置は、
 画像表示手段に表示された画像に対して、画像表示手段の前に集まった複数人のそれぞれが行なったジェスチャーを、撮像手段で撮像した画像から認識するジェスチャー認識手段と、
 前記ジェスチャー認識手段による認識結果に基づいて、表示画面を遷移させる表示制御手段と、
 を備えたことを特徴とする。
 上記目的を達成するため、本発明に係る方法は、
 画像表示手段に画像を表示する画像表示ステップと、
 前記画像表示手段の前に集まった複数人の画像を撮像する撮像ステップと、
 前記画像表示手段に表示された画像に対して、前記複数人のそれぞれが行なったジェスチャーを、前記撮像ステップで撮像した画像から認識するジェスチャー認識ステップと、
 前記ジェスチャー認識ステップでの認識結果に基づいて、表示画面を遷移させる表示制御ステップと、
 を備えたことを特徴とする。
 上記目的を達成するため、本発明に係る記憶媒体は、
 画像表示手段に画像を表示する画像表示ステップと、
 前記画像表示手段の前に集まった複数人の画像から、前記複数人のそれぞれが行なったジェスチャーを認識するジェスチャー認識ステップと、
 前記ジェスチャー認識ステップでの認識結果に基づいて、表示画面を遷移させる表示制御ステップと、
 をコンピュータに実行させるプログラムを格納したことを特徴とする。
 本発明によれば、複数人に対して画像を表示する装置であって、その画像を見ている人物にとって、より操作性の良い装置を実現することができる。
本発明の第1実施形態に係る情報処理装置の構成を示すブロック図である。 本発明の第2実施形態に係る情報処理装置を含む画像処理システムの構成を示すブロック図である。 本発明の第2実施形態に係る情報処理装置のハードウエア構成を示すブロック図である。 本発明の第2実施形態に係る撮影した手のデータの構成を示す図である。 本発明の第2実施形態に係るジェスチャーDBの構成を示す図である。 本発明の第2実施形態に係るテーブルの構成を示す図である。 本発明の第2実施形態に係るテーブルの構成を示す図である。 本発明の第2実施形態に係るテーブルの構成を示す図である。 本発明の第2実施形態に係るテーブルの構成を示す図である。 本発明の第2実施形態に係る情報処理装置の動作手順を示すフローチャートである。 本発明の第3実施形態に係る情報処理装置の構成を示すブロック図である。 本発明の第3実施形態に係る属性判定テーブルの構成を示す図である。 本発明の第3実施形態に係る報知プログラムDBの構成を示す図である。 本発明の第3実施形態に係る報知プログラム選択テーブルの構成を示す図である。 本発明の第3実施形態に係る情報処理装置の動作手順を示すフローチャートである。 本発明の第4実施形態に係る画像処理システムの構成を示すブロック図である。
 以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素はあくまで例示であり、本発明の技術範囲をそれらのみに限定する趣旨のものではない。
 [第1実施形態]
 本発明の第1実施形態としての画像処理システム100について、図1を用いて説明する。画像処理システム100は、画像を表示する画像表示部101と、画像表示部101の前に集まった複数人106の画像を撮像する撮像部102とを備える。また、画像処理システム100は、画像表示部101に表示された画像に対して、複数人106のそれぞれが行なったジェスチャーを、撮像部102で撮像した画像から認識するジェスチャー認識部103を備える。さらに画像処理システム100はさらに、ジェスチャー認識部103による認識結果に基づいて、前記画像表示部101の表示画面を遷移させる表示制御部105を備える。
 本実施形態によれば、複数人に対して画像を表示する装置であって、その画像を見ている人物にとって、より操作性の良い装置を実現することができる。
 [第2実施形態]
 本発明の第2実施形態としての画像処理システム200について、図2乃至図7を用いて説明する。本実施形態に係る画像処理システム200は、複数人に対して同時に画像を表示する表示装置を有する。そして、その画像表示部の前にいる複数人の、待機時間と顔のむきと手の動きとを認識してパラメータ化し、それらのパラメータを総合的に判定し、通行人全体としての表示装置(デジタルサイネージ)に対する注目度を算出する。
 《システム構成》
 図2は、第2実施形態に係る情報処理装置210を含む画像処理システム200の構成を示すブロック図である。なお、図2では、独立した情報処理装置210を図示しているが、複数の情報処理装置210がネットワークを介して接続されたシステムにも拡張可能である。以下、データベースについては、DBと略して記載する。
 図2の画像処理システム200は、情報処理装置210と、ステレオカメラ230と、表示装置240と、スピーカ250と、を有する。ステレオカメラ230は、不特定の複数人204を撮影して、情報処理装置210に撮影した画像を送ると共に、情報処理装置210により制御されて対象者にフォーカスすることが可能である。表示装置240は、情報処理装置210から報知プログラムにしたがって宣伝あるいは広告メッセージなどを報知する。本実施形態では、宣伝あるいは広告メッセージの中、あるいは宣伝あるいは広告メッセージに先立って、複数人204に対しジェスチャーによる応答を誘引する画像を含む画面を表示する。そして、応答した人物をステレオカメラ230からの画像で確認すると、応答した人物とのジェスチャーによる対話が可能な画面を出力する。スピーカ250は、表示装置240の画面、あるいは応答した人物105とのジェスチャーによる対話を促進するための、補助音声を出力する。
 《情報処理装置の機能構成》
 情報処理装置210は、入出力インタフェース211、画像記録部212、手検出部213、ジェスチャー認識部214、ジェスチャーDB215、報知プログラムDB216、報知プログラム実行部217、及び出力制御部221を備える。さらに情報処理装置210は、傾向判定部219を備える。
 なお、情報処理装置210は1つの装置である必要はなく、複数の装置に機能が分散してトータルとして図2の機能を実現できればよい。以下、本実施形態における動作手順にしたがって、各機能構成部を説明する。
 入出力インタフェース211は、ステレオカメラ230、表示装置240、スピーカ250と、情報処理装置210との間のインタフェースを実現する。
 まず、所定の報知プログラム、あるいは初期プログラムが報知プログラム実行部217により実行され、出力制御部221及び入出力インタフェース211を介して、表示装置240、スピーカ250から複数人204に対してメッセージが報知される。このメッセージには、複数人204に対してジェスチャー(たとえば、手を振る動作、ジャンケンの動作、手話など)を誘引する内容が含まれてもよい。報知プログラムは、報知プログラム実行部217によって報知プログラムDB216から選ばれる。報知プログラムDB216は、対象者の属性や環境に応じて選択される複数の報知プログラムを格納している。
 次に、ステレオカメラ230が撮影した複数人204の画像が、入出力インタフェース211を介して画像記録部212に送られて、ジェスチャーが判定可能な時間の画像履歴が記録される。手検出部213は、ステレオカメラ230が撮影した複数人204の画像の中から手の画像を検出する。かかる手の画像の検出は、たとえば、色と形状と位置などから検出される。人物の検出を行なった後にその人物の手を検出しても良いし、手のみを直接検出しても良い。
 ジェスチャー認識部214は、手検出部213で検出した複数人204の画像内の手の画像の特徴(図4参照)から、ジェスチャーDB215を参照して各手のジェスチャーを判定する。かかるジェスチャーDB215は、手検出部213で検出した各手の位置や指の位置、時系列の手の動作などと、ジェスチャーとを対応付けて格納している(図5参照)。
 ジェスチャー認識部214による認識結果は、傾向判定部219に送られ、複数人204が全体としてどのような傾向のジェスチャーを行なったかを判定する。傾向判定部219は、判定結果としての傾向を、報知プログラム実行部217に送信する。報知プログラム実行部217は、複数人204が、全体として行なっているジェスチャーに応じて、報知プログラムDB216から最適な報知プログラムを読み出して実行する。実行結果は、出力制御部221及び入出力インタフェース211を介して、表示装置240、スピーカ250から出力される。
 《情報処理装置内部のハードウエア構成》
 図3は、本実施形態に係る情報処理装置210のハードウエア構成を示すブロック図である。図3において、CPU310は演算制御用のプロセッサであり、プログラムを実行することで図2の各機能構成部を実現する。ROM320は、初期データ及びプログラムなどの固定データ及びプログラムを記憶する。通信制御部330は、ネットワークを介して外部装置と通信する。通信制御部330は、各種サーバなどから報知プログラムがダウンロードする。ステレオカメラ230や表示装置240などから出力された信号を、ネットワークを介して受信することができる。通信は無線でも有線でもよい。入出力ネットワーク211は図2と同様に、ステレオカメラ230や表示装置240などとの間のインタフェースとして機能する。
 RAM340は、CPU310が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM340には、本実施形態の実現に必要なデータを記憶する領域及び報知プログラムを記憶する領域が確保されている。
 RAM340は、表示装置240に表示される表示画面データ341と、ステレオカメラ230が撮影した画像データ342と、ステレオカメラ230が撮影した画像データから検出された手のデータ343とを一時的に格納している。また、RAM340は、撮影した各手のデータから判定したジェスチャー344を格納している。
 さらに、RAM340は、ポイントテーブル345を備え、複数人204を撮像して得たジェスチャーの全体的な傾向や、注目すべき特定人を選択する基準となるポイントを算出して一時的に保存する。
 RAM340は、また、情報処理装置210が実行する報知プログラム349の実行エリアを備えている。なお、ストレージ350に格納された他のプログラムも、RAM340にロードされてCPU310により実行され、図2の各機能構成部の機能を実現する。 ストレージ350は、データベースや各種のパラメータ、CPU310が実行するプログラムを、不揮発に記憶する大容量記憶装置である。ストレージ350は、まず、図2でも説明した、ジェスチャーDB215と報知プログラムDB216とを格納している。
 ストレージ350は、情報処理装置210が実行するメインの情報処理プログラム354を含む。情報処理プログラム354は、撮影した複数人によるジェスチャーのポイントを集計するポイント集計モジュール355と、報知プログラムの実行を制御する報知プログラム実行モジュール356とを含む。
 なお、図3には、本実施形態に必須なデータやプログラムのみが示されており、OSなどの汎用のデータやプログラムは図示されていない。
 《データ構成》
 以下に、情報処理装置210で使用される特徴的なデータの構成を示す。
 〈撮影した手のデータの構成〉
 図4は、撮影した手のデータ343の構成を示す図である。
 図4には、ジェスチャーとして、「手を振る」又は「ジャンケン」を判定するために必要な手のデータの一例を示している。なお、「手話」などについても、その判定に必要な手のデータを抽出することにより、判定が可能になる。
 図4の上段410は、「手を振る」ジェスチャーを判定するために必要なデータ例である。411は、撮影された不特定の人物の手について付された各手を識別する手のIDである。412は、手の位置、ここではその高さを抽出している。413は、移動履歴であり、図4には「一方向」、「往復運動」、「静止(間欠)」などが抽出されている。414は移動距離であり、415は移動速度である。かかる移動距離や移動速度が、たとえば、「手を振る」ジェスチャーか、「人を呼ぶ」ジェスチャーかを判別するために使用される。416は、顔の方向であり、注目しているか否かの判断に使用される。417は、この手を持つ人物を識別する人物IDであり、418にはこの人物IDの人物がどこに居るかの人物位置が抽出される。この人物位置により、ステレオカメラ230のフォーカス位置が決定される。あるいは3次元表示である場合は、この人物位置への表示画面の方向が決められても良い。また、スピーカ250による音声の内容や指向性が調整されてもよい。なお、「手を振る」ジェスチャーを判定するデータには、指の位置データなどが記載されていないが、指の位置を追加してもよい。
 図4の下段420は、「ジャンケン」ジェスチャーを判定するために必要なデータ例である。421は、撮影された不特定の人物の手について付された各手を識別する手のIDである。422は、手の位置、ここではその高さを抽出している。423は、親指の3次元の位置を示す。424は、人差指の3次元の位置を示す。425は、中指の3次元の位置を示す。426は、小指の3次元の位置を示す。427は、この手を持つ人物を識別する人物IDであり、428にはこの人物IDの位置が抽出される。なお、図4の例では薬指の位置は除いたが、これを含めてもよい。さらに、指だけでなく、掌や甲のデータやさらに詳細には指の関節位置などを判定に使用すれば、正確な判定が可能になる。図4の各データを、ジェスチャーDB215の内容とマッチングすることで、ジェスチャーが判定されることになる。
 〈ジェスチャーDBの構成〉
 図5は、第2実施形態に係るジェスチャーDB215の構成を示す図である。図5も、図4に対応させて、上段510が「方向指示」ジェスチャーを判定するDBの内容、下段520が「ジャンケン」ジェスチャーを判定するDBの内容である。「手話」についても別途設けられる。
 上段510の511は、各ジェスチャーと判定する「手の高さ」の範囲が記憶されている。512には、移動履歴が記憶されている。513には、移動距離の範囲が記憶されている。514には、移動速度の範囲が記憶されている。515には、指または手の移動方向が記憶されている。516は、511から515の要素から判定した結果としての「ジェスチャー」が記憶されている。たとえば、第1行の条件を満たせば「右方向指示」ジェスチャーと判定される。第2行の条件を満たせば「上方向指示」ジェスチャーと判定される。第3行の条件を満たせば「判別不能」ジェスチャーと判定される。「方向指示」ジェスチャーをできるだけ正確に判別するには、どんなデータが有効であるかによって、抽出する手のデータの種類もジェスチャーDB215の構成も、追加あるいは変更される。
 下段520の521は、各ジェスチャーと判定する「手の高さ」の範囲が記憶されている。下段520は「ジャンケン」の判別であるので、「手の高さ」の範囲は同じであり、この高さを外れると「ジャンケン」とは見なさない。522には親指位置が、523には人差指位置が、524には中指位置が、525には小指位置が記憶されている。なお、522から525の指の位置は、指の絶対位置ではなく指の相対位置であり、図4の指の位置のデータとの比較も相対位置の関係から「ジャンケン」のジェスチャーを判定する。図5には具体的数値は示していないが、第1行の指の位置関係は「グー」、第2行の指の位置関係は「チョキ」、第3行の指の位置関係は「パー」と判定する。「手話」については、「ジャンケン」の判定に類似して時系列の履歴を含むものとなる。
 〈認識結果テーブルの構成〉
 図6Aは、ジェスチャー認識部214よる認識結果を示す認識結果テーブル601の構成を示す図である。図6Aに示すように、テーブル601には、人物のIDに対応して、その認識結果としてのジェスチャー(ここでは右方向指示及び上方向指示)が示されている。
 図6Bは、ジェスチャー以外の人物の動作や位置や環境に応じて予め定められた注目度係数を管理する注目度係数テーブル602を示す図である。ここでは、人物ごとにどの程度表示装置240に注目しているのかを示す注目度を判定するための係数テーブルとして、滞在時間テーブル621と顔のむきテーブル622とを示している。滞在時間テーブル621は、表示装置240の前に滞在している時間を人物ごとに評価するための係数1を保存している。また、顔のむきテーブル622は、表示装置240から見た場合の顔のむきを人物ごとに評価するための係数2を保存している。その他、人物から表示装置までの距離や、足の動きなど、他のパラメータを用いて注目度を判定しても良い。
 図6Cは、ジェスチャー毎のポイント集計テーブル603を示す図である。ポイント集計テーブル603は、ジェスチャー認識部214で認識した認識結果としてのジェスチャー(ここでは右方向指示、上方向指示など)ごとに、それぞれのポイントがどのように集計されたかを示している。
 具体的には、右方向指示のジェスチャーを行なったと判定される人物のIDと、その人物の注目度を示す係数1、係数2と、人物毎のポイントと、ポイント集計結果を保存している。ここでは、ジェスチャー自体の基礎ポイントを10と規定しているため、10に係数1及び係数2を積算したものが、各人のポイントとなる。集計結果は、各人よりも小さいIDの人物のポイントを全て加算した値である。
 図6Dは、図6Cを用いて算出した集計結果のみを表わすテーブル604を示す図である。このように集計することにより、表示装置240の前にいる複数人が、全体としてどのようなジェスチャーを行なった傾向が強かったかを判定できる。テーブル604の例では、上方向指示を行なった集団のポイントが高いため、全体として上方向指示のジェスチャーをする傾向が強いと判断し、画面を上方向にスライドさせるなど、装置をその傾向に応じて制御すればよい。
 以上のように、単なる多数決だけではなく、注目度に判定した重み付けを行なって集団の総意を判定することにより、より公平な操作または今までにないデジタルサイネージを実現できる。
 《動作手順》
 図7は、画像処理システム200の動作手順を示すフローチャートである。図3のCPU310がRAM340を使用しながらこのフローチャートに記載された処理を実行することにより図2の各機能構成部の機能を実現する。
 まず、ステップS701において、表示装置240に画像を表示させる。例えば不特定の人物のジェスチャーを誘引する画像を表示させる。次に、ステップS703において、ステレオカメラ230で撮影をして画像を取得する。ステップS705において、撮影画像から人物を検出する。次に、ステップS707において、人物毎にジェスチャーを検出する。更に、ステップS709において、検出した人物毎に滞在時間や顔のむきに基づいて「注目度」を判定する。
 更にステップS711に進んで、人物毎のポイントを算出し、ステップS713でジェスチャーごとにポイントを加算する。ステップS715では、全ての人物のジェスチャーの検出及びポイント加算が終了したか判定し、全ジェスチャーのポイント集計が終了するまで、ステップS705乃至ステップS713の処理を繰り返す。
 全ての「ジェスチャー」についてポイント集計が終了すれば、ステップS717に進んで、最高集計ポイントのジェスチャーを決定する。ステップS719では、これがデジタルサイネージの前にいる集団の総意と判断して、報知プログラムの実行処理を行なう。また、個人毎のポイントもポイント集計テーブル603に残っているため、最もポイントの高い人物にフォーカスを当てることも可能である。そのような人物を特定し、その後、その人物のみに向けた報知プログラムを報知プログラムDB216から選択して実行してもよい。
 《効果》
 以上の構成によれば、1つのデジタルサイネージで、大勢の観衆とのコミュニケーションを行なうことが可能となる。例えば、交差点などに設けられた巨大画面に画像を表示して、その前にいる群衆を撮影し、その総意を汲み取ったり、その群衆全体とのコミュニケーションを行なったりすることができる。
 或いは、大学の講義や選挙演説など、聴衆のジェスチャーや注目度を判定して、モニターに表示する画像や演説内容などを変化させても良い。反応した大衆の集計ポイントによって、興味を示す人を増やすような表示や音声に切り替えていくことも可能である。
 [第3実施形態]
 次に、図8乃至図12を用いて、本発明の第3実施形態について説明する。図8は、本実施形態に係る情報処理装置810の構成を示すブロック図である。第2実施形態と比較すると、RAM340に、属性判定テーブル801と報知プログラム選択テーブル802とを有する点で異なる。また、ストレージ350に、人物認識DB817と属性判定モジュール858と報知プログラム選択モジュール857とを記憶する点でも異なる。
 第3実施形態では、第2実施形態に加えて、ジェスチャーにより「対象者」と判定された人物の属性(たとえば、性別や年齢)を、ステレオマメラ230からの画像に基づいて判断し、属性に応じた報知プログラムを選択して実行する。なお、「対象者」の属性のみでなく、服装や行動傾向、あるいはグループなのかなどを判断して、それに応じて報知プログラムを選択してもよい。本実施形態によれば、「対象者」が引き続き報知プログラムに引きつけることが可能となる。なお、第3実施形態における画像処理システム及び情報処理装置の構成は、第2実施形態と同様であるので重複する説明は省き、以下追加部分を説明する。
 属性判定テーブル801は、図9に示すように、顔の特徴901や服装の特徴902や身長903などから、それぞれの人物がどのような属性(ここでは性別904及び年齢905)を有していると考えられるか判断するためのテーブルである。
 報知プログラム選択テーブル802は、人物の属性に応じて、どの報知プログラムを選択するかを決定するためのテーブルである。
 人物認識DB817は、人物の属性を判定するために予め定められた特徴毎のパラメータが格納されている。つまり、顔や服装や身長に応じてポイントが決められており、そのポイントを総計することで、女性なのか男性なのか、どの程度の年齢層なのか判断できる構成となっている。
 属性判定モジュール858は、人物認識DB817を用いて人物毎または複数人グループの属性を判定し、属性判定テーブル801を生成するプログラムモジュールである。撮像画像中でジェスチャーを行なっているそれぞれの人物がどのような属性(年齢、性別など)を有するのか、あるいは、グループとしてどのような属性(カップル、親子、友人など)を有するのか判断する。
 報知プログラム選択モジュール857は、人物またはグループの属性に応じた報知プログラムを報知プログラムDB216から選択する。
 図10は、報知プログラムDB216の構成を示す図である。図10には、報知プログラムを識別し、読み出しのキーとなる報知プログラムID1001が記憶されている。それぞれの報知プログラムID、図10では「001」「002」から各々の報知プログラムA(1010)と報知プログラムB(1020)とが読み出し可能である。図10の例では、報知プログラムAは「化粧品広告」のプログラム、報知プログラムBは「マンション広告」のプログラムと仮定する。人物認識DB817を使って認識された「対象者」の属性に応じた報知プログラムが報知プログラムDB216から選択されて実行されることになる。
 図11は、報知プログラム選択テーブル802の構成を示す図である。図11の1101は、ジェスチャーにより「対象者」となった人物IDである。1102は、人物認識DB817により認識した「対象者」の「性別」である。1103は、「対象者」の「年齢」である。これらの「対象者」の属性などに対応付けられて、1104の報知プログラムIDが決定される。図11の例では、「対象者」である人物ID(0010)の人物は性別が「女性」、「年齢」は20~30代と認識されたので、図10の化粧品広告の報知プログラムAが選択されて実行される。また、「対象者」である人物ID(0005)の人物は性別が「男性」、「年齢」は40~50代と認識されたので、図10のマンション広告の報知プログラムBが選択されて実行される。なお、かかる報知プログラムの選択は一例であって、これに限定されない。
 図12は、本実施形態に係る情報処理装置の動作手順を示すフローチャートである。図12のフローチャートは、図7のフローチャートにステップS1201とS1203とを追加したものであり、他のステップは同様であるので、ここではこの2つのステップについて説明する。
 ステップS1201において、人物認識DB817を参照して、「対象者」の属性を認識する。次に、ステップS1203において、図11に示した報知プログラム選択テーブル802にしたがって、報知プログラムを報知プログラムDB216から選択する。
 以上の実施形態により、ジェスチャーを行なった対象者の属性に応じた広告報知を行なうことが可能となる。例えば、複数人とジャンケンを行なって勝った人に合わせた広告報知を行なうことなどが可能となる。
 [第4実施形態]
 上記第2及び第3実施形態では、1つの情報処理装置による処理として説明をした。第4実施形態においては、複数の情報処理装置がネットワークを介して報知情報サーバに接続し、報知情報サーバからダウンロードされた報知プログラムを実行する構成を説明する。本実施形態によれば、互いの情報交換が可能になると共に、報知情報サーバに情報を集中して一元的に広告・宣伝を管理することが可能になる。なお、本実施形態の情報処理装置は、第2及び第3実施形態の情報処理装置と同等の機能を有しても良いし、その機能の一部を報知情報サーバに移行してもよい。また、報知プログラムばかりでなく、状況に応じて情報処理装置の動作プログラムを報知情報サーバからダウンロードすることで、配置場所に適切なジェスチャーによる制御方法が実現される。
 第4実施形態における処理は、機能分散があったとしても、基本的には第2及び第3実施形態と同様であるので、画像処理システムの構成を説明し、詳細な機能説明は省略する。
 図13は、本実施形態に係る画像処理システム1300の構成を示すブロック図である。図13において、図2と同じ参照番号は同様な機能を果たす構成要素を示している。以下、相違点を説明する。
 図13には3つの情報処理装置1310が示されている。数に制限はない。これらの情報処理装置1310は、ネットワーク1330を介して、報知情報サーバ1320に接続される。報知情報サーバ1320は、ダウンロード用の報知プログラム1321を記憶しており、ステレオカメラ230で撮影された各地点の情報を受け取って、ダウンロードすべき報知プログラムを選択する。たとえば、複数の表示装置240が関連したジェスチャーの誘引画像を表示するなどの統合された制御が可能となる。
 なお、図13では、情報処理装置1310が、特徴的な構成要素である、ジェスチャー判定部214、ジェスチャーDB215、報知プログラムDB216、報知プログラム実行部217を有するものとして図示した。しかし、この一部の機能を報知情報サーバ1320、あるいは他の装置に分散してもよい。
 [他の実施形態]
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステム又は装置も、本発明の範疇に含まれる。
 また、本発明は、複数の機器から構成されるシステムに適用されても良いし、単体の装置に適用されても良い。さらに、本発明は、実施形態の機能を実現する制御プログラムが、システムあるいは装置に直接あるいは遠隔から供給される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされる制御プログラム、あるいはその制御プログラムを格納した記憶媒体、その制御プログラムをダウンロードさせるWWW(World Wide Web)サーバも、本発明の範疇に含まれる。
 この出願は、2010年11月10日に出願された日本国特許出願 特願2010-251679号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (9)

  1.  画像を表示する画像表示手段と、
     前記画像表示手段の前に集まった複数人の画像を撮像する撮像手段と、
     前記画像表示手段に表示された表示画像に対して、前記複数人のそれぞれが行なったジェスチャーを、前記撮像手段で撮像した画像から認識するジェスチャー認識手段と、
     前記ジェスチャー認識手段による認識結果に基づいて、前記表示画面を遷移させる表示制御手段と、
     を備えたことを特徴とする画像処理システム。
  2.  前記ジェスチャー認識手段による認識結果に基づいて、前記複数人が全体としてどのような傾向のジェスチャーを行なったかを判定する判定手段をさらに有し、
     前記表示制御手段は、前記判定手段による判定結果に応じて、前記表示画面を遷移させることを特徴とする請求項1に記載の画像処理システム。
  3.  前記ジェスチャー認識手段による認識結果に基づいて、前記複数人中の特定の人物が行なったジェスチャーを判定する判定手段をさらに有し、
     前記表示制御手段は、前記判定手段による判定結果に応じて、表示画面を遷移させることを特徴とする請求項1に記載の画像処理システム。
  4.  前記判定手段は、前記複数人の各人のジェスチャーについて、その各人の注目度に応じた重み付けを行なった上で前記傾向を判定することを特徴とする請求項2に記載の画像処理システム。
  5.  前記判定手段は、前記複数人の各人のジェスチャーについて、その各人の注目度に応じた重み付けを行なった上で、予め定められた複数のグループのジェスチャーのうち、どのグループのジェスチャーを行なう傾向にあったかを判定することを特徴とする請求項2に記載の画像処理システム。
  6.  前記複数人のそれぞれについて、前記画像表示手段の前に滞在している時間及び顔の向きに基づいて、前記注目度を算出することを特徴とする請求項4又は5に記載の画像処理システム。
  7.  画像表示手段に表示された画像に対して、画像表示手段の前に集まった複数人のそれぞれが行なったジェスチャーを、撮像手段で撮像した画像から認識するジェスチャー認識手段と、
     前記ジェスチャー認識手段による認識結果に基づいて、表示画面を遷移させる表示制御手段と、
     を備えたことを特徴とする画像処理装置。
  8.  画像表示手段に画像を表示する画像表示ステップと、
     前記画像表示手段の前に集まった複数人の画像を撮像する撮像ステップと、
     前記画像表示手段に表示された画像に対して、前記複数人のそれぞれが行なったジェスチャーを、前記撮像ステップで撮像した画像から認識するジェスチャー認識ステップと、
     前記ジェスチャー認識ステップでの認識結果に基づいて、表示画面を遷移させる表示制御ステップと、
     を備えたことを特徴とする画像処理方法。
  9.  画像表示手段に画像を表示する画像表示ステップと、
     前記画像表示手段の前に集まった複数人の画像から、前記複数人のそれぞれが行なったジェスチャーを認識するジェスチャー認識ステップと、
     前記ジェスチャー認識ステップでの認識結果に基づいて、表示画面を遷移させる表示制御ステップと、
     をコンピュータに実行させることを特徴とする画像処理プログラムを記憶した記憶媒体。
PCT/JP2011/071801 2010-11-10 2011-09-26 画像処理システム、画像処理方法、及び画像処理プログラムを記憶した記憶媒体 WO2012063560A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US13/822,992 US20130241821A1 (en) 2010-11-10 2011-09-26 Image processing system, image processing method, and storage medium storing image processing program
JP2012542844A JP5527423B2 (ja) 2010-11-10 2011-09-26 画像処理システム、画像処理方法、及び画像処理プログラムを記憶した記憶媒体
CN2011800543360A CN103201710A (zh) 2010-11-10 2011-09-26 图像处理系统、图像处理方法以及存储图像处理程序的存储介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010251679 2010-11-10
JP2010-251679 2010-11-10

Publications (1)

Publication Number Publication Date
WO2012063560A1 true WO2012063560A1 (ja) 2012-05-18

Family

ID=46050715

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/071801 WO2012063560A1 (ja) 2010-11-10 2011-09-26 画像処理システム、画像処理方法、及び画像処理プログラムを記憶した記憶媒体

Country Status (4)

Country Link
US (1) US20130241821A1 (ja)
JP (1) JP5527423B2 (ja)
CN (1) CN103201710A (ja)
WO (1) WO2012063560A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005660A (ja) * 2016-07-05 2018-01-11 株式会社リコー 情報処理装置、プログラム、位置情報作成方法、情報処理システム
JP2019207572A (ja) * 2018-05-29 2019-12-05 富士ゼロックス株式会社 情報処理装置及びプログラム
WO2020022039A1 (ja) * 2018-07-25 2020-01-30 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10936077B2 (en) 2016-07-05 2021-03-02 Ricoh Company, Ltd. User-interactive gesture and motion detection apparatus, method and system, for tracking one or more users in a presentation

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9374618B2 (en) * 2012-09-11 2016-06-21 Intel Corporation Interactive visual advertisement service
CN103605426A (zh) * 2013-12-04 2014-02-26 深圳中兴网信科技有限公司 基于手势识别的信息显示系统及其信息显示方法
CN103699390A (zh) * 2013-12-30 2014-04-02 华为技术有限公司 一种图像缩放方法和终端设备
JP2015176253A (ja) * 2014-03-13 2015-10-05 オムロン株式会社 ジェスチャ認識装置およびジェスチャ認識装置の制御方法
CN104317385A (zh) * 2014-06-26 2015-01-28 青岛海信电器股份有限公司 一种手势识别方法和系统
KR102350351B1 (ko) * 2016-11-14 2022-01-14 소니그룹주식회사 정보 처리 장치, 정보 처리 방법, 및 기록 매체
CN107479695B (zh) * 2017-07-19 2020-09-25 苏州三星电子电脑有限公司 显示装置及其控制方法
CN107390998B (zh) * 2017-08-18 2018-07-06 中山叶浪智能科技有限责任公司 一种虚拟键盘中按键的设置方法及系统
CN107592458B (zh) * 2017-09-18 2020-02-14 维沃移动通信有限公司 一种拍摄方法及移动终端
CN109214278B (zh) * 2018-07-27 2023-04-18 平安科技(深圳)有限公司 用户指令匹配方法、装置、计算机设备及存储介质
KR102582863B1 (ko) * 2018-09-07 2023-09-27 삼성전자주식회사 사용자 의도 기반 제스처 인식 방법 및 장치
EP3680814B1 (de) * 2019-01-14 2024-10-09 dormakaba Deutschland GmbH Verfahren zur erkennung von bewegungsabläufen und passiererkennungssystem
WO2021186717A1 (ja) * 2020-03-19 2021-09-23 シャープNecディスプレイソリューションズ株式会社 表示制御システム、表示制御方法、およびプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11327753A (ja) * 1997-11-27 1999-11-30 Matsushita Electric Ind Co Ltd 制御方法及びプログラム記録媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6353764B1 (en) * 1997-11-27 2002-03-05 Matsushita Electric Industrial Co., Ltd. Control method
JP4165095B2 (ja) * 2002-03-15 2008-10-15 オムロン株式会社 情報提供装置および情報提供方法
US9292092B2 (en) * 2007-10-30 2016-03-22 Hewlett-Packard Development Company, L.P. Interactive display system with collaborative gesture detection
DK2229617T3 (da) * 2007-12-05 2011-08-29 Almeva Ag Interaktionsanordning til interaktion mellem en billedskærm og et pegeobjekt
JP4934861B2 (ja) * 2008-01-28 2012-05-23 日本電気株式会社 表示システム、表示方法、表示効果測定システム、及び、表示効果測定方法。
JP5229944B2 (ja) * 2008-08-04 2013-07-03 株式会社ブイシンク オンデマンドサイネージシステム
JP2011017883A (ja) * 2009-07-09 2011-01-27 Nec Soft Ltd 訴求対象特定システム、訴求対象特定方法、広告出力システム及び広告出力方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11327753A (ja) * 1997-11-27 1999-11-30 Matsushita Electric Ind Co Ltd 制御方法及びプログラム記録媒体

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005660A (ja) * 2016-07-05 2018-01-11 株式会社リコー 情報処理装置、プログラム、位置情報作成方法、情報処理システム
US10936077B2 (en) 2016-07-05 2021-03-02 Ricoh Company, Ltd. User-interactive gesture and motion detection apparatus, method and system, for tracking one or more users in a presentation
JP2019207572A (ja) * 2018-05-29 2019-12-05 富士ゼロックス株式会社 情報処理装置及びプログラム
JP7155613B2 (ja) 2018-05-29 2022-10-19 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
WO2020022039A1 (ja) * 2018-07-25 2020-01-30 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JPWO2020022039A1 (ja) * 2018-07-25 2021-08-02 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
JP7444060B2 (ja) 2018-07-25 2024-03-06 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP5527423B2 (ja) 2014-06-18
US20130241821A1 (en) 2013-09-19
CN103201710A (zh) 2013-07-10
JPWO2012063560A1 (ja) 2014-05-12

Similar Documents

Publication Publication Date Title
JP5527423B2 (ja) 画像処理システム、画像処理方法、及び画像処理プログラムを記憶した記憶媒体
CN110348543B (zh) 眼底图像识别方法、装置、计算机设备及存储介质
WO2020224479A1 (zh) 目标的位置获取方法、装置、计算机设备及存储介质
JP6684883B2 (ja) カメラエフェクトを提供する方法およびシステム
CN109242765B (zh) 一种人脸图像处理方法、装置和存储介质
US8781991B2 (en) Emotion recognition apparatus and method
JP5605725B2 (ja) 情報報知システム、情報報知方法、情報処理装置及びその制御方法と制御プログラム
CN110443794B (zh) 一种基于病理图像的图像状态确定方法、装置以及系统
CN109726659A (zh) 人体骨骼关键点的检测方法、装置、电子设备和可读介质
KR101978299B1 (ko) 콘텐츠 서비스 시스템에서의 콘텐츠 서비스를 위한 장치
CN111698564B (zh) 信息推荐方法、装置、设备及存储介质
KR20190030140A (ko) 시선 추적 방법 및 이를 수행하기 위한 사용자 단말
CN109495616B (zh) 一种拍照方法及终端设备
CN111078521A (zh) 异常事件的分析方法、装置、设备、系统及存储介质
CN110765924A (zh) 一种活体检测方法、装置以及计算机可读存储介质
CN110675473B (zh) 生成gif动态图的方法、装置、电子设备及介质
KR20190067433A (ko) 텍스트-리딩 기반의 리워드형 광고 서비스 제공 방법 및 이를 수행하기 위한 사용자 단말
CN111797867A (zh) 系统资源优化方法、装置、存储介质及电子设备
Ueng et al. Vision based multi-user human computer interaction
CN108989666A (zh) 拍摄方法、装置、移动终端及计算机可读取存储介质
CN110232417B (zh) 图像识别方法、装置、计算机设备及计算机可读存储介质
CN111753813A (zh) 图像处理方法、装置、设备及存储介质
CN116307394A (zh) 产品用户体验评分方法、装置、介质及设备
WO2020207294A1 (zh) 服务处理方法、装置、存储介质及电子设备
CN113762585B (zh) 数据的处理方法、账号类型的识别方法及装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11840493

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2012542844

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13822992

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 11840493

Country of ref document: EP

Kind code of ref document: A1