JP2018010510A - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2018010510A
JP2018010510A JP2016139292A JP2016139292A JP2018010510A JP 2018010510 A JP2018010510 A JP 2018010510A JP 2016139292 A JP2016139292 A JP 2016139292A JP 2016139292 A JP2016139292 A JP 2016139292A JP 2018010510 A JP2018010510 A JP 2018010510A
Authority
JP
Japan
Prior art keywords
image
search
unit
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016139292A
Other languages
English (en)
Inventor
遼太郎 藤山
Ryotaro Fujiyama
遼太郎 藤山
貴志 石田
Takashi Ishida
貴志 石田
直人 鶴岡
Naoto Tsuruoka
直人 鶴岡
杏子 橋本
Kyoko Hashimoto
杏子 橋本
慎 山内
Shin Yamauchi
慎 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016139292A priority Critical patent/JP2018010510A/ja
Priority to US15/642,696 priority patent/US10290078B2/en
Publication of JP2018010510A publication Critical patent/JP2018010510A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】会話の促進を支援すること。【解決手段】画像投影装置によって投影される画像である投影対象画像に対して描画を行う画像処理装置は、音声の入力を制御する音声入力制御部と、入力された音声を文字列に変換する変換部と、前記文字列に関連する1つ以上の情報を検索する検索部と、前記検索部によって検索された前記情報と前記情報が検索された時期を示す識別情報とを対応付けて記憶する記憶部と、記憶された前記情報をそれぞれ含む図形を前記投影対象画像に描画する描画部であって、対応付けられた識別情報に応じた大きさで前記図形を前記投影対象画像に投影する描画部と、を有する。【選択図】図13

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。
ブレーンストーミングでは、各人が自由な発想でアイデアを出すことが許容される。すなわち、アイデアに対して特段の制限が設けられない。そうすることで、多数のアイデアが挙げられ、斬新な結論への到達を期待することができる。
しかしながら、アイデアに対して特段の制限が設けられない状況においても、なかなかアイデアが出てこない場合がある。その結果、会話が滞ってしまい、時間が浪費されてしまう可能性も有る。
そこで、ブレーンストーミングにおける会話に対して音声解析を行い、音声解析によって文字列化したテキストをキーワードとして画像検索を行い、検索結果を表示することで、会話の内容を可視化することが可能な構成がある。しかし、会話をする度に画像検索が行われると、検索結果の数が増大するため、会話の内容が発散してしまう可能性がある。
本発明は、上記の点に鑑みてなされたものであって、会話の促進を支援することを目的とする。
そこで上記課題を解決するため、画像投影装置によって投影される画像である投影対象画像に対して描画を行う画像処理装置は、音声の入力を制御する音声入力制御部と、入力された音声を文字列に変換する変換部と、前記文字列に関連する1つ以上の情報を検索する検索部と、前記検索部によって検索された前記情報と前記情報が検索された時期を示す識別情報とを対応付けて記憶する記憶部と、記憶された前記情報をそれぞれ含む図形を前記投影対象画像に描画する描画部であって、対応付けられた識別情報に応じた大きさで前記図形を前記投影対象画像に投影する描画部と、を有する。
会話の促進を支援することができる。
本発明の実施の形態における会話促進支援装置1の外観の一例を示す図である。 ユーザの発話から文字列の表示までの動作を説明するための図である。 検索結果の表示例を説明するための図である。 検索に利用される文字列の他の表示例を示す図である。 検索時期と画像円のサイズとの関係を説明するための図である。 画像円に対する操作の第1の例を説明するための図である。 画像円に対する操作の第2の例を説明するための図である。 画像円に対する操作の第3の例を説明するための図である。 本発明の実施の形態における会話促進支援装置の構成要素の配置位置の一例を示す図である。 アクリル板に対する操作を検出する仕組みの一例を示す図である。 会話促進支援装置の構成要素間の接続関係の一例を示す図である。 本発明の実施の形態における画像処理装置のハードウェア構成例を示す図である。 本発明の実施の形態における画像処理装置の機能構成例を示す図である。 画像処理装置が実行する処理手順の一例を説明するためのフローチャートである。 検索履歴記憶部の構成例を示す図である。 描画情報記憶部の構成例を示す図である。 操作に応じた処理の処理手順の一例を説明するためのフローチャートである。
以下、図面に基づいて本発明の実施の形態を説明する。図1は、本発明の実施の形態における会話促進支援装置1の外観の一例を示す図である。図1において、(1)は、会話促進支援装置1の上面図であり、(2)は、会話促進支援装置1の側面図である。会話促進支援装置1の上面は、例えば、直径1000mmの円形の平面であり、下面は、直径が800mmの円形である。また、会話促進支援装置1の上面までの高さは、1100mmである。また、上面と下面とは同心円である。すなわち、会話促進支援装置1は、円錐台を逆さにしたような形状をしている。なお、会話促進支援装置1の形状及び寸法は一例である。本実施の形態では、会話促進支援装置1の周囲に立っているユーザが容易に会話促進支援装置1の上面を操作できるように、図1のような形状及び寸法が採用されている。
会話促進支援装置1の上面は、後述のプロジェクタ20によって、画像が投影される投影面であると共に、ユーザがタッチ操作等によって画像を操作可能な領域でもある。以下、会話促進支援装置1の上面を操作領域A1という。
続いて、図2〜図8を用いて会話促進支援装置1の動作の概要を説明する。図2は、ユーザの発言から文字列の表示までの動作を説明するための図である。
例えば、(1)に示されるように、会話促進支援装置1を取り囲んでいるユーザのうちの誰かが、「北海道新幹線は新函館北斗駅と新青森駅を結んでるんだって。」と発言したとする。この場合、(2)に示されるように、操作領域A1の円周沿いに、タイプ開始位置p1から反時計回りの方向に、発言の内容を示す文字列を構成する各文字がタイピングされる。(2)の右側には、文字列がタイピングされた部分が拡大されて示されている。タイピングされた文字列は、時計回りにゆっくりと回転する。なお、円周が文字列で埋まった場合、古い文字から順に消えていく。
発言が一定時間途絶えることにより文字列が確定すると、確定された文字列から検索語となる名詞が抽出される。(3)では、抽出された名詞が位置を変えずに残り、抽出されなかった文字が透過して、消えていく状態が示されている。
続いて、(4)に示されるように、抽出された各名詞は、例えば、赤く表示され、「・」によって区切られる。続いて、抽出された名詞群に関連する画像の検索が行われる(5)。検索の対象は、例えば、インターネットにおいて公開されている画像である。また、検索は、一般的な検索エンジンが利用されて行われてもよい。
図3は、検索結果の表示例を説明するための図である。図3の(1)に示されている操作領域A1内には5つの円が含まれている。これらは、検索された画像を含む円(以下、「画像円」という。)である。本実施の形態では、検索された画像群のうち、上位5件の画像のそれぞれの画像円が操作領域A1に表示される。但し、5件は一例であり、5件未満又は6件以上が表示されてもよい。なお、一般的に、画像は矩形である。そこで、例えば、画像の長辺が所定の長さ(例えば、200pixel)になるように画像が拡大又は縮小された上で、画像の中心から半径r(rは、例えば、50pixel)の円の範囲が切り出されて画像円が生成されてもよい。なお、各画像円は、仮想的、かつ、ランダムな方向の水流により、操作領域A1内をランダムな方向にゆっくり移動(浮遊)する。
図3の(2)は、2回目の検索が行われた状態(すなわち、図2が再度繰り返された状態)を示す。(2)における操作領域A1には、サイズの異なる画像円が混在している。小さい方の画像円は、1回目の検索により表示された画像円である。大きい方の画像円は、2回目の検索により表示された画像円である。すなわち、2回目の検索後において、1回目の検索により表示された画像円は、縮小される。なお、画像円内の画像も同じ縮小率で縮小される。
なお、2回目の検索において音声認識された文字列は、例えば、1回目の検索に関して抽出された検索語の後に続けて表示されてもよい。または、検索ごとの文字列は、図4に示されるように表示されてもよい。
図4は、検索に利用される文字列の他の表示例を示す図である。図4では、操作領域A1内において、L領域及びR領域が形成されている例が示されている。検索ごとに、音声認識された文字列は、L領域又はR領域に交互に表示される。L領域に表示される文字列は、L領域開始位置からタイピングが開始される。R領域に表示される文字列は、R領域開始位置からタイピングが開始される。
図3に戻る。図3の(3)は、3回目の検索が行われた状態を示す。(3)における操作領域A1には、3段階のサイズの画像円が混在している、最小の画像円は、1回目の検索により表示された画像円である。中サイズの画像円は、2回目の検索により表示された画像円である。最大の画像円は、3回目の検索により表示された画像円である。すなわち、3回目の検索の画像円以外は、前回の検索時のサイズから縮小される。
図3の(4)は、4回目の検索が行われた状態を示す。(4)における操作領域A1には、4段階のサイズの画像円が混在している、最小の画像円は、1回目の検索により表示された画像円である。2番目に小さいサイズの画像円は、2回目の検索により表示された画像円である。3番目に小さい画像円は、3回目の検索により表示された画像円である。最大の画像円は、4回目の検索により表示された画像円である。すなわち、4回目の検索の画像円以外は、前回の検索時のサイズから縮小される。
図3の(5)は、5回目の検索が行われた状態を示す。(5)における操作領域A1には、5段階のサイズの画像円が混在している、最小の画像円は、1回目の検索により表示された画像円である。2番目に小さいサイズの画像円は、2回目の検索により表示された画像円である。3番目に小さい画像円は、3回目の検索により表示された画像円である。4番目に小さい画像円は、4回目の検索により表示された画像円である。最大の画像円は、5回目の検索により表示された画像円である。すなわち、5回目の検索の画像円以外は、前回の検索時のサイズから縮小される。
このように、本実施の形態では、画像の検索時期に応じて、当該画像に対応する画像円の大きさが異なる。そうすることで、ユーザは、各画像円に含まれる画像の検索時期の相対的な前後関係を容易に認識することができる。この点について、図5を用いて更に詳しく説明する。
図5は、検索時期と画像円のサイズとの関係を説明するための図である。本実施の形態では、画像円の表示に関して「レイヤ」という概念が導入される。図5に示されるように、本実施の形態では、第1レイヤから第3レイヤまでの3つのレイヤが定義される。
第1レイヤは、最後(最新)の3回分の検索における画像円が属するレイヤである。したがって、図3の(5)の状態では、5回目、4回目、及び3回目の検索における画像円が第1レイヤに属する。第1レイヤの画像円は、ユーザによる操作が可能である。また、第1レイヤの画像円は、他のレイヤに属する画像円よりも輝度が上げられてもよい。なお、第1レイヤの中でも検索時期(検索回数)に応じて画像円のサイズは異なる。すなわち、最後の検索における画像円のサイズは、大サイズである。最後から1回前の検索における画像円のサイズは、大サイズよりも小さい中サイズである。最後から2回前の検索における画像円のサイズは、中サイズよりも小さい小サイズである。なお、第1レイヤに属する画像円同士は、相互に重ならないように表示されるようにしてもよい。
第2レイヤは、最後から3回前の画像円が属するレイヤである。したがって、図3(5)の状態では、2回目の検索における画像円が第2レイヤに属する。第2レイヤの画像円のサイズは、小サイズよりも小さい小2サイズである。
第3レイヤは、最後から4回前の画像円が属するレイヤである。したがって、図3(5)の状態では、1回目の検索における画像円が第3レイヤに属する。第3レイヤの画像円のサイズは、小2サイズよりも小さい小3サイズである。
なお、第2レイヤの画像円及び第3レイヤの画像円は操作不能である。また、第2レイヤ、第3レイヤの順に、画像円の透明度が増加してもよい。そうすることで、操作不能な画像円の視認性を低下させて、ユーザによる誤操作の可能性を低下させることができる。また、第2レイヤ又は第3レイヤに属する画像円は、他の画像円との重畳が許容されてもよい。この場合、重畳部分の表示については、上位のレイヤの画像円が有効とされてもよい。
また、表示対象とされるのは、第1レイヤから第3レイヤのいずれかのレイヤに属する画像円のみである。したがって、図3の(5)の状態から更に検索が行われた場合、1回目の検索における画像円は、操作領域A1から消滅する。
なお、図5に示されている、大サイズ、中サイズ、小サイズ、小2サイズ、及び小3サイズのそれぞれの具体的な寸法は一例である。
図6は、画像円に対する操作の第1の例を説明するための図である。図6に示されるように、ユーザは、レイヤ1に属する画像円を、ドラッグ&ドロップにより移動させることができる。
図7は、画像円に対する操作の第2の例を説明するための図である。図7の(1)に示されるように、ユーザによってタップされた画像円は、操作領域A1の中心に移動し、拡大表示される。拡大された画像円内の画像の向きは、拡大直前の画像円の向きと同じでもよい。
(2)に示されているように、大サイズ、中サイズ、及び小サイズのいずれのサイズの画像円であっても、タップされた場合、同じ拡大サイズの画像円に拡大される。この際、画像円内の画像自体は、拡大された画像円(以下、「拡大画像円」という。)内において全体表示される。但し、全体表示ではなく、画像の一部のみが拡大画像円において表示されてもよい。
なお、拡大画像円は、第1レイヤよりも上位に表示される。すなわち、拡大画像円以外の画像円が拡大画像円と重畳する場合、重畳部分における表示は拡大画像円が有効とされる。したがって、拡大画像円は、第1レイヤよりも上位の第0レイヤに属するともいえる。なお、検索時に表示される文字列も、全ての画像円よりも上位に表示されるという意味において、第0レイヤに属するといえる。
また、拡大画像円が表示されている状態においても、検索の実行は可能である。この場合、拡大画像円内の画像の検索時期に関わらず、拡大画像円の表示は維持される。
また、拡大画像円が表示されている状態において、第1レイヤに属する他の画像円がタップされた場合、タップされた他の画像円によって、拡大画像円が入れ替えられる。すなわち、拡大画像円は、最大で1つである。但し、同時に複数の拡大画像円の表示が許容されてもよい。更に、拡大画像円の表示位置は固定されずに、他の画像円と同様、拡大画像円がランダムに移動してもよい。
また、拡大画像円が表示されている状態において、第1レイヤに属する画像円以外の領域がタップされた場合、当該拡大画像円の拡大は解除される。
拡大画像円は、拡大が解除されると、当該拡大画像円内の画像の表示形態は、検索時期に応じた状態に戻される。例えば、当該画像の検索時期が、最後の検索から3回前であれば、当該画像を含む画像円は、第2レイヤに属する。当該画像の検索時期が、最後の検索から5回前であれば、当該画像を含む画像円は、消去される。
図8は、画像円に対する操作の第3の例を説明するための図である。図8には、拡大画像円内の画像の操作例が示されている。(1)に示されるように、拡大画像円内の画像については、例えば、ピンチアウトにより拡大することができ、ピンチインにより縮小することができる。
また、(2)に示されるように、拡大画像円内の画像は、ドラッグ&ドロップにより、拡大画像円内においてスクロール(移動)することができる。
以下、会話促進支援装置1の具体例について説明する。図9は、本発明の実施の形態における会話促進支援装置の構成要素の配置位置の一例を示す図である。図9に示されるように、会話促進支援装置1の上面を形成するテーブルには、例えば、アクリル板b1が嵌め込まれ、アクリル板b1の周辺には、例えば、3つのマイク80と、多数の赤外線LED90とが配置される。アクリル板b1は、操作領域A1を形成する。但し、アクリル板以外の素材の板によって操作領域A1が形成されてもよい。マイク80は、ユーザの発言の音声を入力するために用いられる。マイク80は、3つ未満でもよいし、4つ以上であってもよい。赤外線LED90は、アクリル板b1に対する操作の検出に利用される。
また、会話促進支援装置1の筐体内には、画像処理装置10、プロジェクタ20、電源タップ30、ミキサ40、小型ファン50、鏡60、赤外線カメラ70等が格納される。
画像処理装置10は、プロジェクタ20により投影対象とされる画像(以下、「投影対象画像」という。)の描画処理等を実行する。例えば、PC(Personal Computer)等の汎用的なコンピュータが、画像処理装置10として用いられてもよい。
プロジェクタ20は、投影対象画像の投影(出力)を行う。投影対象画像は、鏡60によって反射されてアクリル板b1の裏面に投影される。アクリル板b1の裏面には、リアプロジェクション用シートが貼られているため、アクリル板b1の裏面に投影された画像は、アクリル板b1の表面に表示される。投影対象画像が鏡60を経由するのは、プロジェクタ20からアクリル板b1までの投影距離を長くしてプロジェクタ20の焦点をアクリル板b1に合わせ易くするためである。したがって、鏡60を用いずともプロジェクタ20の焦点をアクリル板b1に合わせることが可能であれば、鏡60は不要である。
電源タップ30は、赤外線LED90、画像処理装置10、プロジェクタ20、ミキサ40、及び小型ファン50等に電力を供給する。ミキサ40は、複数のマイク80から入力される音声信号を合成する。小型ファン50は、筐体内の熱を筐体外に放出する。赤外線カメラ70は、赤外線LED90から発光されている赤外線の変化を検出することで、アクリル板b1(操作領域A1)に対する操作を検出するために利用される。
図10は、アクリル板に対する操作を検出する仕組みの一例を示す図である。各赤外線LED90からは、アクリル板b1の内側に赤外線が発光されている。ユーザがアクリル板b1の表面をタッチすると、タッチした箇所においてアクリル板b1の表面の屈折率が変化する。赤外線カメラ70が、当該屈折率の変化を検出することで、タッチの発生とタッチされた箇所とが検出される。
なお、タッチの検出は、一般的なタッチパネルにおいて採用されている他の方式(例えば、静電容量方式等)により行われてもよい。
図11は、会話促進支援装置の構成要素間の接続関係の一例を示す図である。各赤外線LED90、ミキサ40、プロジェクタ20、画像処理装置10、及び小型ファン50は、電源ケーブルによって電源タップ30に接続される。画像処理装置10とプロジェクタ20とは、HDMI(登録商標)(High-Definition Multimedia Interface)等、画像をデジタル信号で伝送する通信インタフェースを介して接続される。各マイク80は、ミキサ40に音声ケーブルによって接続される。ミキサ40によってまとめられた一本の音声ケーブルは、画像処理装置10に接続される。赤外線カメラ70は、USB(Universal Serial Bus)ケーブルによって画像処理装置10に接続される。
図12は、本発明の実施の形態における画像処理装置のハードウェア構成例を示す図である。図12の画像処理装置10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU104、及びインタフェース装置105等を有する。
画像処理装置10での処理を実現するプログラムは、CD−ROM等の記録媒体101によって提供される。プログラムを記憶した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。
メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従って画像処理装置10に係る機能を実行する。インタフェース装置105は、音声ケーブルとのインタフェース、プロジェクタ20との通信インタフェース、及び赤外線カメラ70とのUSBインタフェースをまとめて表現したものである。
図13は、本発明の実施の形態における画像処理装置の機能構成例を示す図である。図13において、画像処理装置10は、音声入力制御部11、音声認識部12、文字列描画部13、自然言語処理部14、画像検索部15、画像描画部16、画像出力部17、及び操作検出部18等を有する。これら各部は、画像処理装置10にインストールされた1以上のプログラムが、CPU104に実行させる処理により実現される。画像処理装置10は、また、検索履歴記憶部121及び描画情報記憶部122を利用する。これら各記憶部は、例えば、補助記憶装置102、又は画像処理装置10にネットワークを介して接続可能な記憶装置等を用いて実現可能である。
音声入力制御部11は、マイク80(ミキサ40)からの音声の入力を制御する。音声認識部12は、入力された音声に対して音声認識処理を実行して、当該音声を文字列(テキストデータ)に変換する。なお、音声認識処理は、公知技術を用いて実行することができる。文字列描画部13は、音声認識部12によって得られた文字列を、投影対象画像i1において、操作領域A1の円周沿いに対応する部分に描画する。自然言語処理部14は、音声認識部12によって得られた文字列に対して自然言語処理を実行して、当該文字列から検索語を抽出する。画像検索部15は、抽出された検索語に関連する画像を、インターネット等から検索する。画像描画部16は、検索された画像を含む画像円を、投影対象画像i1に対して描画する。画像出力部17は、投影対象画像i1をプロジェクタ20に出力する。したがって、投影対象画像i1に対する画像円の描画は、プロジェクタ20による当該画像円の投影と等価である。投影対象画像i1は、例えば、メモリ装置103に記憶されている。操作検出部18は、操作領域A1に対するユーザの操作を検出する。
検索履歴記憶部121には、検索された画像の識別情報が記憶される。描画情報記憶部122には、投影対象画像i1に対する画像円の描画状況を示す情報が記憶される。
以下、画像処理装置10が実行する処理手順について説明する。図14は、画像処理装置が実行する処理手順の一例を説明するためのフローチャートである。
音声入力制御部11は、マイク80からの音声の入力を待機している(S101)。会話促進支援装置1を囲んでいるいずれかのユーザによる発言の音声がマイク80及び音声入力制御部11によって入力されると(S101でYes)、音声認識部12は、入力された音声について音声認識処理を実行して、当該音声を文字列に変換する(S102)。続いて、文字列描画部13は、投影対象画像i1において操作領域A1の円周沿いに対応する位置に、変換された文字列を描画する(S103)。その結果、当該文字列が、操作領域A1に投影される。すなわち、図2の(2)において説明したような表示が実現される。ステップS102及びS103は、音声の入力が開始されてから音声の入力が一定時間途絶えるまで繰り返し実行される。以下、入力が開始されてから入力が一定時間途絶えるまでに入力された音声の文字列への変換結果を、「入力文字列」という。
続いて、自然言語処理部14は、入力文字列に対して自然言語処理を行い、入力文字列から検索語を抽出する(S104)。例えば、係り受け解析が行われて、入力文字列に含まれている各名詞が検索語として抽出される。自然言語処理部14は、抽出結果に基づいて、投影対象画像i1に描画されている入力文字列を更新する(S105)。具体的には、図2の(3)及び(4)に示したように、抽出された各検索語が「・」で区切られて投影対象画像i1に描画される。なお、名詞以外の単語が検索語とされてもよい。
続いて、画像検索部15は、抽出された各検索語をAND条件によって接続した検索条件によって、インターネット等から画像を検索する(S106)。続いて、画像検索部15は、検索結果を検索履歴記憶部121に記憶する(S107)。
図15は、検索履歴記憶部の構成例を示す図である。図15において、検索履歴記憶部121には、検索の実行ごとにレコードが記憶される。各レコードは、検索番号及び画像ID群等を含む。検索の実行ごととは、ステップS106の実行ごとをいう。
検索番号は、何回目の検索であるのかを示す値である。図15では、6回の検索が行われた例が示されている。画像ID群は、当該検索において検索された画像の識別情報の集合である。本実施の形態では、検索結果のリスト順において、上位の5件の画像の画像IDが、画像ID群に記憶される。なお、上位の5件のみが抽出されるのは、多数の画像円が操作領域A1に表示され、操作領域A1内の表示が煩雑になるのを避けるためである。
続いて、画像描画部16は、検索番号が、「最後の検索番号−5」である検索結果が検索履歴記憶部121に記憶されているか否かを判定する(S108)。すなわち、現時点においてレイヤ3に属する検索結果の有無が判定される。該当する検索結果が無い場合(これまでの検索回数が5回以下である場合)(S108でNo)、ステップS111に進む。該当する検索結果が有る場合(S108でYes)、画像描画部16は、該当する検索結果の画像ID群に含まれる各画像IDに対応する画像円を、投影対象画像i1から消去する(S109)。但し、拡大画像円は、消去対象から除外される。そうすることで、拡大画像円の表示が維持される。続いて、画像描画部16は、消去された画像円に対応するレコードを、描画情報記憶部122から削除する(S110)。
図16は、描画情報記憶部の構成例を示す図である。図16において、描画情報記憶部122は、投影対象画像i1に描画された画像円ごとにレコードを有する。各レコードは、画像ID、位置、向き、レイヤ、サイズ、及び拡大フラグ等を含む。
画像IDは、画像円に含まれる画像の画像IDである。位置は、画像IDに係る画像の画像円の描画位置の座標値である。画像円の描画位置とは、画像円の中心位置をいう。当該座標値は、投影対象画像i1の座標系に基づくものであってもよい。向きは、画像IDに係る画像の向きである。例えば、画像円に含まれる画像の長辺についての所定の方向(例えば、投影対象画像i1の座標系のX軸の方向)に対する角度が向きの値とされてもよい。レイヤは、画像IDに係る画像が属するレイヤである。サイズは、画像IDに係る画像の画像円のサイズである。本実施の形態では、図5に示した5つのサイズ(大、中、小、小2、小3)のいずれかがサイズの値とされる。なお、当該画像円が拡大されている場合であっても、サイズの値は5つのうちのいずれかである。拡大フラグは、画像IDに係る画像の画像円が拡大されているか否かを示す情報である。TRUEは、拡大されていることを示し、FALSEは、拡大されていないことを示す。
ステップS110では、レイヤの値が3であって、かつ、拡大フラグの値が「FALSE」であるレコードが削除される。レイヤの値が3であって、拡大フラグの値が「TRUE」であるレコードが有る場合、当該レコードのレイヤの値が「−1」に更新される。レイヤの値が「−1」であることは、本来消去される画像円であるが、拡大されているために消去されていないことを意味する。
続いて、画像描画部16は、「最後の検索番号−4」を変数Nに代入し、変数iに1を代入する(S111)。最後の検索番号とは、検索履歴記憶部121における最後のレコードの検索番号である。すなわち、今回の検索の検索番号である。図15の例によれば、最後の検索番号は6である。したがって、Nには、6−4=2が代入される。
続いて、画像描画部16は、N回目の検索結果(検索番号=Nの検索結果)のレコードが検索履歴記憶部121に記憶されているか否かを判定する(S112)。該当レコードが記憶されていない場合(S112でNo)、ステップS116に進む。該当レコードが記憶されている場合(S112でYes)、画像描画部16は、変数iの値に基づいて、当該レコードに係る検索結果の新たなレイヤを判定する(S113)。本実施の形態では、図5に示したようにレイヤが定義される。したがって、i=1に対応するレイヤは、第3レイヤである。i=2に対応するレイヤは、第2レイヤである。3≦i≦5に対応するレイヤは、第1レイヤである。
続いて、画像描画部16は、N回目の検索結果の各画像の画像円について、描画情報記憶部122に記憶されているサイズ及びレイヤの値を更新する(S114)。サイズの値は、変数iの値に応じたサイズに変更される。iの値に応じたサイズとは、i=1であれば、小3サイズである。i=2であれば、小2サイズである。i=3であれば、小サイズである。i=4であれば、中サイズである。レイヤは、ステップS113において判定された値に更新される。
続いて、画像描画部16は、ステップS114における画像円のサイズの変更を、投影対象画像i1に反映する(S115)。その結果、当該画像円について、操作領域A1に投影されるサイズが変更される。但し、拡大フラグの値が「TRUE」である画像円(すなわち、拡大画像円)は、投影対象画像i1への反映対象から除外される。すなわち、拡大画像円は、そのままの状態が維持される。
続いて、画像描画部16は、ステップS114においてサイズが変更された各画像円について、描画情報記憶部122に記憶されているレコードのサイズの値を変更後の値に更新し、当該レコードのレイヤの値を、ステップS113において判定された値に更新する(S115)。
続いて、画像描画部16は、変数N及び変数iのそれぞれに1を加算する(S116)。続いて、画像描画部16は、変数Nの値が、(最後の検索番号−1)を超えているか否かを判定する(S117)。すなわち、変数Nの値が、前回の検索に対応する検索番号を超えたか否かが判定される。変数Nの値が(最後の検索番号−1)以下である場合(S117でNo)、ステップS112以降が繰り返される。
変数Nの値が(最後の検索番号−1)を超える場合(S117でYes)、画像描画部16は、検索番号がNである検索結果(すなわち、今回の検索の検索結果)について検索履歴記憶部121に記憶されているレコードの画像ID群に含まれる各画像IDに係る画像を含む画像円を投影対象画像i1に描画する(S118)。すなわち、今回の検索結果の各画像の画像円が描画される。この際、各画像円のサイズは、大サイズとされる。各画像円の描画位置及び向きは、ランダムに決定されてよい。
続いて、画像描画部16は、ステップS115で描画された各画像円のレコードを描画情報記憶部122に追加する。当該レコードのレイヤには1が記憶され、サイズには「大」が記憶される。
なお、画像描画部16は、投影対象画像i1に描画されている各画像円について、例えば、一定間隔で位置及び向きをランダムに変更する。変更後の位置及び向きは、描画情報記憶部122に逐次反映される。
一方、操作検出部18によって、操作領域A1に対する操作が検出されると(S120でYes)、操作に応じた処理が実行される(S121)。
続いて、ステップS121の詳細について説明する。図17は、操作に応じた処理の処理手順の一例を説明するためのフローチャートである。
ステップS201において、操作検出部18は、操作対象が拡大画像円であるか否かを判定する。すなわち、描画情報記憶部122において拡大フラグの値が「TRUE」であるレコードが有り、かつ、検出された操作箇所の座標値が、当該レコードに係る画像円(拡大画像円)の範囲内であるか否かが判定される。当該画像円の範囲は、当該レコードの座標値を中心とし、拡大画像円に対応した直径を有する円の範囲である。なお、検出された操作箇所は、投影対象画像i1の座標系の座標値に変換されればよい。
操作対象が拡大画像円である場合(S201でYes)、画像描画部16は、操作に応じた描画処理を実行する(S202)。すなわち、図8において説明したように、ピンチアウト操作であれば、拡大画像円内の画像が拡大され、ピンチイン操作であれば、拡大画像円内の画像が縮小される。また、ドラッグ&ドロップであれば、拡大画像円内の画像がスクロール(移動)される。
一方、操作対象が拡大画像円で無い場合(S201でNo)、操作検出部18は、操作の種別がタップであるか否かを判定する(S203)。操作の種別の判定には公知技術が利用されればよい。
操作の種別がタップである場合(S203でYes)、画像描画部16は、拡大画像円の有無を判定する(S204)。拡大画像円の有無は、拡大フラグの値が「TRUE」であるレコードが描画情報記憶部122に記憶されているか否かで判定することができる。拡大フラグの値が「TRUE」であるレコードが描画情報記憶部122に記憶されていない場合(S204でNo)、ステップS209に進む。
拡大フラグの値が「TRUE」であるレコードが描画情報記憶部122に記憶されている場合(S204でYes)、画像描画部16は、当該レコードに係る画像円(すなわち、拡大画像円)を投影対象画像i1から消去する(S205)。続いて、画像描画部16は、当該レコードのレイヤの値が「−1」であるか否かを判定する(S206)。当該レコードのレイヤの値が「−1」であれば(S206でYes)、画像描画部16は、当該レコードを描画情報記憶部122から削除する(S207)。すなわち、当該レコードに係る画像円は、表示されない。一方、当該レコードのレイヤの値が「−1」でない場合(S206でNo)、画像描画部16は、当該レコードの拡大フラグの値を「FALSE」に更新し、当該レコードの画像IDに係る画像を含む画像円を、当該レコードに記憶されているサイズで投影対象画像i1に描画する(S208)。この際、当該レコードの位置及び向きは、当該画像円の描画位置及び向きによって更新される。なお、当該画像円の描画位置は、操作箇所(タップの箇所)でもよいし、任意の位置でもよい。
続いて、画像描画部16は、第1レイヤに属する画像円が操作対象(タップの対象)であるか否かを判定する(S209)。第1レイヤに属する画像円の範囲は、描画情報記憶部122においてレイヤの値が1であるレコードに基づいて特定することができる。すなわち、当該レコードの座標値を中心とし、当該レコードのサイズに対応した直径を有する円の範囲が、該当の範囲である。したがって、検出された操作箇所の座標値が、該当の範囲のいずれかに含まれていれば、第1レイヤに属する画像円が操作対象であることになる。
第1レイヤに属する画像円が操作対象である場合(S209でYes)、画像描画部16は、操作対象の画像円を投影対象画像i1から消去する(S210)。続いて、画像描画部16は、当該画像円に係る画像の拡大画像円を投影対象画像i1に描画する(S211)。拡大画像円は、操作領域A1における中心に対応する位置に描画される。続いて、画像描画部16は、当該拡大画像円に対応する、描画情報記憶部122のレコードの位置及び拡大フラグの値を更新する(S212)。位置は、操作領域A1の中心の座標に更新される。拡大フラグは、「TRUE」に更新される。
また、操作の種別がタップではなく(S203でNo)、ドラッグ&ドロップである場合(S213でYes)、画像描画部16は、ステップS209と同様に、第1レイヤに属する画像円が操作対象であるか否かを判定する(S214)。1レイヤに属する画像円が操作対象である場合(S214でYes)、画像描画部16は、操作対象の画像円の描画位置を、投影対象画像i1においてドロップ先に対応する位置に移動させる(S215)。続いて、画像描画部16は、当該画像円に対応する、描画情報記憶部122のレコードの位置を、移動先の座標値に更新する(S216)。
上述したように、本実施の形態によれば、会話促進支援装置1を囲んでいるユーザの一人が何らかの発言をすると、当該発言の内容に関連する画像群が操作領域A1に表示される。当該画像群を見たいずれかのユーザが、更に、発言を行うと、当該発言の内容に関連する画像群が操作領域A1に更に表示される。このようにして、検索結果の画像群が、ユーザの発言を促進することができる。すなわち、ユーザ間の会話の促進を支援することができる。
また、画像群の中には、ユーザにとっては想定外であった画像が含まれる可能性も有る。このような画像が表示されることで、想定外の方向の話題に会話を導くこともできる。
また、過去の検索において表示された画像円は、検索が繰り返されるごとにサイズが縮小されて、操作不能とされる。そうすることで、検索が繰り返され、多数の画像が混在することによる、ユーザの混乱を回避することができる。すなわち、ユーザは、画像円のサイズに応じて、当該画像円に含まれる画像の検索時期を判断することができる。
また、過去数回分の検索結果の画像が表示されることで、最新の画像が表示されるまでの経緯を把握可能とすることもできる。
なお、本実施の形態では、検索対象が画像である例について説明した。これは、画像の方が文字列に比べて直感的な情報であり、会話の促進にも好適であると考えたためである。但し、画像以外の情報(例えば、文字列)が検索対象とされ、画像円に含まれて表示されてもよい。
また、本実施の形態では、検索された画像が円形で表示される例について説明したが、他の図形によって表示されてもよいし、検索された画像の形状のまま表示されてもよい。
また、本実施の形態では、「検索の時期」が、検索回数によって規定される例について説明した。すなわち、各画像円のレイヤ及びサイズが、最後の検索の検索回数を基準として何回前の検索に係る画像円であるかに基づいて決定される例について説明した。しかし、「検索の時期」は、時間によって規定されてもよい。例えば、各画像円のレイヤ及びサイズは、それぞれの画像円の画像の検索から最後の検索まで経過時間に基づいて決定されてもよい。
また、画像の投影には、プロジェクタ20の代わりに液晶ディスプレイが利用されてもよい。
また、会話促進支援装置1は、ブレーンストーミング等の業務目的のみならず、娯楽目的で利用されてもよい。例えば、レストランや喫茶店等のテーブルに会話促進支援装置1が利用されてもよい。その他の目的で会話促進支援装置1が利用されてもよい。
なお、本実施の形態において、プロジェクタ20は、画像投影装置の一例である。音声認識部12は、変換部の一例である。画像検索部15は、検索部の一例である。画像描画部16は、描画部の一例である。拡大画像円は、所定の大きさの図形の一例である。第3レイヤに属する画像が検索された時期は、第1の時期の一例である。第1レイヤに属する画像が検索された時期は、第2の時期の一例である。操作領域A1は、投影面の一例である。
以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
1 会話促進支援装置
10 画像処理装置
11 音声入力制御部
12 音声認識部
13 文字列描画部
14 自然言語処理部
15 画像検索部
16 画像描画部
17 画像出力部
18 操作検出部
20 プロジェクタ
30 電源タップ
40 ミキサ
50 小型ファン
60 鏡
70 赤外線カメラ
80 マイク
90 赤外線LED
100 ドライブ装置
101 記録媒体
102 補助記憶装置
103 メモリ装置
104 CPU
105 インタフェース装置
121 検索履歴記憶部
122 描画情報記憶部
B バス
b1 アクリル板
i1 投影対象画像
特願2014−199490号公報

Claims (10)

  1. 画像投影装置によって投影される画像である投影対象画像に対して描画を行う画像処理装置であって、
    音声の入力を制御する音声入力制御部と、
    入力された音声を文字列に変換する変換部と、
    前記文字列に関連する1つ以上の情報を検索する検索部と、
    前記検索部によって検索された前記情報と前記情報が検索された時期を示す識別情報とを対応付けて記憶する記憶部と、
    記憶された前記情報をそれぞれ含む図形を前記投影対象画像に描画する描画部であって、対応付けられた識別情報に応じた大きさで前記図形を前記投影対象画像に投影する描画部と、
    を有することを特徴とする画像処理装置。
  2. 前記描画部は、検索された時期が相対的に前である情報を含む図形を、検索された時期が相対的に後である情報を含む図形よりも小さくする、
    ことを特徴とする請求項1記載の画像処理装置。
  3. 前記描画部は、最後の検索を基準として第1の時期より前に検索された情報を含む図形を、前記投影対象画像から消去する、
    ことを特徴とする請求項1又は2記載の画像処理装置。
  4. 前記投影対象画像が投影される投影面に対する操作を検出する検出部を有し、
    前記描画部は、前記検出部によって検出された操作の箇所に位置する図形を所定の大きさに拡大する、
    ことを特徴とする請求項1乃至3いずれか一項記載の画像処理装置。
  5. 前記描画部は、前記検出部によって検出された操作の箇所に位置する図形が、最後の検索を基準として第2の時期より後に検索された情報を含む図形である場合に、当該図形を所定の大きさに拡大する、
    ことを特徴とする請求項4記載の画像処理装置。
  6. 前記描画部は、前記所定の大きさの図形については、当該図形が含む情報が検索された時期に関わらず前記所定の大きさを維持する、
    ことを特徴とする請求項4又は5記載の画像処理装置。
  7. 前記描画部は、前記所定の大きさの図形については、当該図形が含む情報が検索された時期に関わらず前記所定の大きさを維持し、前記検出部によって検出された操作の箇所に、最後の検索を基準として前記第2の時期より後に検索された情報を含む図形が位置しない場合に、前記所定の大きさの図形を、当該図形が含む情報が検索された時期に応じて描画又は消去する、
    ことを特徴とする請求項5記載の画像処理装置。
  8. 前記検索部は、前記文字列に関連する画像を検索する、
    ことを特徴とする請求項1乃至7いずれか一項記載の画像処理装置。
  9. 画像投影装置によって投影される画像である投影対象画像に対して描画を行う画像処理装置が、
    音声の入力を制御する音声入力制御手順と、
    入力された音声を文字列に変換する変換手順と、
    前記文字列に関連する1つ以上の情報を検索する検索手順と、
    検索された前記情報と前記情報が検索された時期を示す識別情報とを対応付けて記憶部に記憶する記憶手順と、
    記憶された前記情報をそれぞれ含む図形を前記投影対象画像に描画する描画手順であって、対応付けられた識別情報に応じた大きさで前記図形を前記投影対象画像に投影する描画手順と、
    を実行することを特徴とする画像処理方法。
  10. 画像投影装置によって投影される画像である投影対象画像に対して描画を行う画像処理装置に、
    音声の入力を制御する音声入力制御手順と、
    入力された音声を文字列に変換する変換手順と、
    前記文字列に関連する1つ以上の情報を検索する検索手順と、
    検索された前記情報と前記情報が検索された時期を示す識別情報とを対応付けて記憶部に記憶する記憶手順と、
    記憶された前記情報をそれぞれ含む図形を前記投影対象画像に描画する描画手順であって、対応付けられた識別情報に応じた大きさで前記図形を前記投影対象画像に投影する描画手順と、
    を実行させることを特徴とするプログラム。
JP2016139292A 2016-07-14 2016-07-14 画像処理装置、画像処理方法、及びプログラム Pending JP2018010510A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016139292A JP2018010510A (ja) 2016-07-14 2016-07-14 画像処理装置、画像処理方法、及びプログラム
US15/642,696 US10290078B2 (en) 2016-07-14 2017-07-06 Image processing apparatus, image processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016139292A JP2018010510A (ja) 2016-07-14 2016-07-14 画像処理装置、画像処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2018010510A true JP2018010510A (ja) 2018-01-18

Family

ID=60940667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016139292A Pending JP2018010510A (ja) 2016-07-14 2016-07-14 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US10290078B2 (ja)
JP (1) JP2018010510A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019144348A (ja) * 2018-02-19 2019-08-29 アルパイン株式会社 情報処理システム及びコンピュータプログラム
WO2020213115A1 (ja) * 2019-04-18 2020-10-22 日本電信電話株式会社 発話画像化装置、発話画像化方法及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6942995B2 (ja) 2017-03-31 2021-09-29 ブラザー工業株式会社 情報処理プログラム、情報処理装置、および情報処理装置の制御方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5737740A (en) * 1994-06-27 1998-04-07 Numonics Apparatus and method for processing electronic documents
JP3621284B2 (ja) 1999-03-17 2005-02-16 株式会社リコー 円盤センタリング装置
US20020051958A1 (en) * 2000-06-02 2002-05-02 Khalsa Darshan Singh Balanced group thinking
US20020082949A1 (en) * 2000-12-27 2002-06-27 Desormeaux Joseph L. Method and system for product planning
JP2004015332A (ja) 2002-06-05 2004-01-15 Olympus Corp テーブル型ディスプレイ装置およびその組立方法
US20040246236A1 (en) * 2003-06-02 2004-12-09 Greensteel, Inc. Remote control for electronic whiteboard
US9451883B2 (en) * 2009-03-04 2016-09-27 The Regents Of The University Of California Apparatus and method for decoding sensory and cognitive information from brain activity
EP2556452A4 (en) * 2010-04-09 2014-04-02 Hewlett Packard Development Co GROUPING PROJECTS AND VISUALIZING RELATIONS
US8954431B2 (en) * 2011-06-09 2015-02-10 Xerox Corporation Smart collaborative brainstorming tool
US20130132867A1 (en) * 2011-11-21 2013-05-23 Bradley Edward Morris Systems and Methods for Image Navigation Using Zoom Operations
US20130339969A1 (en) * 2012-06-19 2013-12-19 Nmetric, Llc Scheduling and Decision System
US8897424B2 (en) * 2012-07-11 2014-11-25 Oracle International Corporation Automatic clustering and visualization of data trends
US9342908B2 (en) * 2012-10-08 2016-05-17 Auckland Uniservices Limited Information retrieval and presentation methods and systems
JP2014199490A (ja) 2013-03-29 2014-10-23 株式会社ニコン コンテンツ取得装置およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019144348A (ja) * 2018-02-19 2019-08-29 アルパイン株式会社 情報処理システム及びコンピュータプログラム
JP6999230B2 (ja) 2018-02-19 2022-01-18 アルパイン株式会社 情報処理システム及びコンピュータプログラム
WO2020213115A1 (ja) * 2019-04-18 2020-10-22 日本電信電話株式会社 発話画像化装置、発話画像化方法及びプログラム

Also Published As

Publication number Publication date
US10290078B2 (en) 2019-05-14
US20180018755A1 (en) 2018-01-18

Similar Documents

Publication Publication Date Title
US20220206649A1 (en) Device, method, and graphical user interface for managing folders with multiple pages
US20200379615A1 (en) Device, method, and graphical user interface for managing folders
US10642458B2 (en) Gestures for selecting text
EP3479213B1 (en) Image search query predictions by a keyboard
US9720955B1 (en) Search query predictions by a keyboard
JP5873550B2 (ja) ソフトキーボードを操作するためのデバイス、方法及びグラフィカルユーザインタフェース
US20150100881A1 (en) Device, method, and graphical user interface for navigating a list of identifiers
JP2019511771A (ja) グラフィカルキーボード内での図像シンボル検索
US9507516B2 (en) Method for presenting different keypad configurations for data input and a portable device utilizing same
JP2018010510A (ja) 画像処理装置、画像処理方法、及びプログラム
US20170337920A1 (en) Information processing device, method of information processing, and program
US11269511B2 (en) Information processing apparatus, information processing system, and non-transitory computer readable medium storing program
KR20200050609A (ko) 음성 명령 기반의 가상 터치 입력 장치