JP2018054880A - 表示装置、情報処理装置および情報処理方法 - Google Patents

表示装置、情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2018054880A
JP2018054880A JP2016190778A JP2016190778A JP2018054880A JP 2018054880 A JP2018054880 A JP 2018054880A JP 2016190778 A JP2016190778 A JP 2016190778A JP 2016190778 A JP2016190778 A JP 2016190778A JP 2018054880 A JP2018054880 A JP 2018054880A
Authority
JP
Japan
Prior art keywords
image
display
screen
unit
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2016190778A
Other languages
English (en)
Other versions
JP2018054880A5 (ja
Inventor
俊樹 藤森
Toshiki Fujimori
俊樹 藤森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016190778A priority Critical patent/JP2018054880A/ja
Priority to US15/714,644 priority patent/US10410323B2/en
Publication of JP2018054880A publication Critical patent/JP2018054880A/ja
Publication of JP2018054880A5 publication Critical patent/JP2018054880A5/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

【課題】投射された画像に対してインタラクティブ機能の操作性が優れたプロジェクターを提供する。
【解決手段】プロジェクター10は、指示動作を検出する位置検出部50と、指示動作に基づく手書き文字150をスクリーンSCに投射する投射部20と、投射された手書き文字150の表示方向に基づいて、手書き文字150を操作するUI画面160の表示方向を決定し、決定した表示方向に基づいてUI画面160をスクリーンSCに投射させるUI制御部34と、を備える。
【選択図】図2

Description

本発明は、表示装置、情報処理装置および情報処理方法に関する。
従来、オブジェクト画像を表示している表示画面に対し、ユーザーが手指等でタッチ操作を行う場合、下記特許文献1に示すように、タッチ操作を受け付けるユーザーインターフェイスである操作パッドをオブジェクト画像の近くに表示する表示装置が提案されている。
この表示装置は、操作パッドを表示する場合、操作パッドの表示の向きは矩形状の表示画面に合わせるように決定している。従って、ユーザーが表示画面と正対する場合、表示装置はユーザーと正対する方向に操作パッドを表示する。
特開2015−88090号公報
しかしながら、ユーザーが表示画面に対して斜め方向からオブジェクト画像と向き合う場合、操作パッドは表示画面の矩形辺に対して平行に表示されるため、ユーザーは斜め方向から操作パッドを操作することになり、使い勝手が悪く、操作性が低下した。
本発明は、上述の課題に鑑みてなされたものであり、操作性に優れた表示装置を提供することを目的とする。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。
[適用例1]
本適用例にかかる表示装置は、指示動作を検出する検出部と、前記指示動作に基づく第1の画像を表示する表示部と、前記表示部における前記第1の画像の表示方向に基づいて、前記第1の画像を操作する第2の画像の表示態様を決定する決定部と、前記決定部が決定した前記表示態様に基づいて前記第2の画像を前記表示部に表示させる表示制御部と、を備えることを特徴とする。
このような構成によれば、表示装置は、指示動作に基づく第1の画像を表示し、第1の画像が表示されている表示方向に基づいて、第1の画像を操作するための第2の画像の表示態様を決定し、決定した表示態様に基づいて第2の画像を表示部に表示する。従って、第2の画像の表示態様は、第1の画像の表示方向に基づいて決定されるため、第2の画像の視認性が向上し、第2の画像の操作性の向上を図ることができる。
[適用例2]
上記適用例にかかる表示装置において、前記決定部は、前記表示方向が前記第1の画像と一致するように、前記第2の画像の前記表示態様を決定することが好ましい。
このような構成によれば、第2の画像は第1の画像の表示方向と一致するように表示されるため、第1の画像と正対した状態での第2の画像の操作指示が容易になる。
[適用例3]
上記適用例にかかる表示装置において、前記表示制御部は、前記表示態様に基づいて前記第2の画像を回転させ、回転させた前記第2の画像を前記第1の画像の近傍に表示させることが好ましい。
このような構成によれば、第2の画像は、第1の画像の表示方向と一致し、第1の画像の近傍に表示されるため、第1の画像に対応する第2の画像の視認性が向上する。
[適用例4]
上記適用例にかかる表示装置において、前記第2の画像は、前記第1の画像に対して表示色、拡大、縮小および範囲指定の少なくとも1つが指示可能であることが好ましい。
このような構成によれば、第2の画像から、第1の画像に対して表示色、拡大、縮小および範囲指定の少なくとも1つが指示できる。
[適用例5]
上記適用例にかかる表示装置において、前記決定部は、前記表示部に複数の前記第1の画像が表示されている場合、前記指示動作が指示する前記第1の画像に基づいて前記第2の画像の前記表示態様を決定することが好ましい。
このような構成によれば、複数の第1の画像が表示されている場合、第2の画像の表示態様は指示動作が指示した第1の画像に基づいて決定できる。
[適用例6]
上記適用例にかかる表示装置において、前記決定部は、前記指示動作が複数の前記第1の画像の1つを指示した場合、指示された前記第1の画像の前記表示方向と一致するように前記第2の画像の前記表示態様を決定しても良い。
[適用例7]
上記適用例にかかる表示装置において、前記決定部は、前記指示動作が複数の前記第1の画像を指示した場合、複数の前記第1の画像の方向に基づいて前記第2の画像の前記表示態様を決定しても良い。
[適用例8]
本適用例にかかる情報処理装置は、指示動作に基づいて表示された第1の画像を処理する情報処理装置であって、表示された前記第1の画像の表示方向に基づいて、前記第1の画像を操作する第2の画像の表示態様を決定する決定部と、前記決定部が決定した前記表示態様に基づいて前記第2の画像を表示させる表示制御部と、を備えることを特徴とする。
このような構成によれば、情報処理装置は、指示動作に基づく第1の画像が表示されている表示方向に基づいて、第1の画像を操作するための第2の画像の表示態様を決定し、決定した表示態様に基づいて第2の画像を表示する。従って、第2の画像の表示態様は、第1の画像の表示方向に基づいて決定されるため、第2の画像の視認性が向上し、第2の画像の操作性の向上を図ることができる。
[適用例9]
本適用例にかかる情報処理方法は、指示動作を検出し、前記指示動作に基づく第1の画像を表示し、表示された前記第1の画像の表示方向に基づいて、前記第1の画像を操作する第2の画像の表示態様を決定し、決定した前記表示態様に基づいて前記第2の画像を表示することを特徴とする。
このような方法によれば、検出した指示動作に基づく第1の画像を表示し、第1の画像が表示されている表示方向に基づいて、第1の画像を操作するための第2の画像の表示態様を決定し、決定した表示態様に基づいて第2の画像を表示する。従って、第2の画像の表示態様は、第1の画像の表示方向に基づいて決定されるため、第2の画像の視認性が向上し、第2の画像の操作性の向上を図ることができる。
実施形態1に係るプロジェクションシステムの構成を示す図。 プロジェクターを構成する機能部を示す機能ブロック図。 文字描画機能が起動された場合の処理の流れを示すフローチャート。 スクリーンに投射された第1のUI画面を示す図。 スクリーンに投射された第2のUI画面を示す図。 範囲選択ボタンが選択された場合、スクリーンに投射される画面を示す図。 手書き文字の一部が範囲指定された一例を示す図。 手書き文字の一部の拡大指示を示す図。 手書き文字の一部が拡大された図。 複数の手書き文字が描画された場合のUI画面の投射例を示す図。 手書き文字の下部にアンダーラインが描画された例を示す図。 複数の手書き文字が描画された場合のUI画面の投射例を示す図。 複数の手書き文字を含む閉領域が描画された例を示す図。 実施形態2に係るプロジェクションシステムの構成を示す図。
以下、本発明の実施形態について図面を参照して説明する。
(実施形態1)
図1は、本発明を適用した実施形態1に係るプロジェクションシステム1の構成を示す図である。本実施形態1では、プロジェクションシステム1は、表示装置の1つとしてのプロジェクター10を有する。
本実施形態1では、プロジェクター10は、スクリーンSCの直上に設置され、斜め下方に向けて画像を投射する短焦点型である。また、本実施形態1で例示するスクリーンSCは、壁面に固定されるか、または、床面に立設された、平板または幕である。尚、壁面をスクリーンSCとして使用することも可能である。この場合、スクリーンSCとして使用される壁面の上部にプロジェクター10が取り付けられても良い。
尚、プロジェクター10は、テーブルディスプレイ、即ち、天井から天吊りされて下方に投射し、テーブルのような水平面に設置されたスクリーンSCに投射する態様も想定できる。また、プロジェクター10は、テーブル内部に設置され、テーブル面のスクリーンSCを背面から投射する態様も想定できる。また、プロジェクター10が投射する投射画像は直線で規定する四角形状には限定されず、直線や曲線で規定する円形や多角形の態様も想定できる。例えば、天吊りされたプロジェクター10の投射面は、丸型のテーブル上であり、ユーザーは、丸型テーブルの形状に合わせて投射された投写画像を囲むように視認する態様も想定できる。
このプロジェクションシステム1では、インタラクティブ機能、即ち、プロジェクター10が画像を投射するスクリーンSC上において、ユーザー(操作者)が指示体70を用いて所定の操作を指示することが可能である。
指示体70は、例えば、ペン型の入力デバイスであり、操作者は指示体70の軸部71を把持し、先端をスクリーンSCに押しつけるように使用する。指示体70の先端には押圧操作を検出する操作スイッチ72が設けられており、操作者が指示体70の先端をスクリーンSCに押し付けた場合に、操作スイッチ72がオンになる。操作者は、スクリーンSC上の任意の位置で指示体70の先端をスクリーンSCに押しつけることで、位置指示操作を行うことができる。
プロジェクター10は、後述するように、スクリーンSC上における指示体70の位置を検出する機能を有する。プロジェクター10は、操作者が位置指示操作を行った場合に、指示体70の先端がスクリーンSCに接した位置を操作位置として検出する。
プロジェクター10は、操作者が指示体70を指示して行う位置指示操作を受け付けて、この操作を投射画像に反映させることができる。具体的には、プロジェクター10は、ユーザーによる描画動作、即ち、ユーザーにより保持された指示体70がスクリーンSC上に押し付けられた状態で移動する指示動作に基づいて、第1の画像に相当する手書き文字150等をスクリーンSCに投射できる。
例えば、図1では、操作者がスクリーンSCに対して左下方向から右上方向に指示体70を移動させることで、手書き文字150はスクリーンSCに対して左下方向から右上方向に向かって斜めに描画される。
プロジェクター10は、指示体70の先端がスクリーンSCに押し付けられた場合、描画動作の開始を判定する。また、プロジェクター10は、スクリーンSCから指示体70の先端が離れて所定時間が経過した場合、描画動作の終了を判定する。
プロジェクター10は、描画動作により描画された画像を、画像データとして保存することができる。
図2は、プロジェクター10を構成する各部の機能ブロック図である。
このプロジェクター10は、画像データが入力される画像データ入力部11を備えている。
画像データ入力部11は、例えば、USBインターフェイス、有線または無線LANインターフェイス等の通信インターフェイスであっても良い。例えば、画像データ入力部11が備えるLANインターフェイスに、サーバー装置や他のプロジェクターが接続されても良い。
また、画像データ入力部11は、アナログ映像信号やデジタル画像データが入力される画像入力端子を備えていても良い。画像入力端子は、VGA端子、DVI(Digital Visual Interface)、S映像端子、RCA端子、D端子、HDMI(登録商標)規格に準拠したHDMIコネクター等である。画像データ入力部11は、これらの画像入力端子に対応するインターフェイス回路や画像処理回路を備えていても良い。また、画像データ入力部11は、フラッシュメモリー等に記憶された画像データを読み取る読取機能を備えても良い。
プロジェクター10は、光学的な画像の形成を行う投射部20と、画像データを処理する画像処理系と、に大別できる。
投射部20は、画像を表示する表示部に相当し、照明光学系21、光変調装置22、および、投射光学系23を備えて構成されている。照明光学系21は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)、レーザー光源等からなる光源を備える。また、照明光学系21は、光源が発した光を光変調装置22に導くリフレクターおよび補助リフレクターを備えていても良い。更に、図示は略すが、投射光の光学特性を高めるためのレンズ群、偏光板、または、光源が発した光の光量を光変調装置22に至る経路上で低減させる調光素子等を備えていても良い。
光変調装置22は、例えば、RGBの三原色に対応した3枚の透過型液晶パネルを備え、この液晶パネルを透過する光を変調して画像光を生成する。照明光学系21からの光はRGBの3色の色光に分離され、各色光は対応する各液晶パネルに入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系23に射出される。
投射光学系23は、投射する画像の拡大・縮小および焦点の調整を行うズームレンズ、ズームの度合いを調整するズーム調整用モーター、フォーカスの調整を行うフォーカス調整用モーター、投射光をスクリーンSCに向けて反射する凹面鏡等を備えている。投射光学系23は、光変調装置22で変調された画像光のズーム調整およびフォーカス調整を行って、レンズ群を通った光を凹面鏡によりスクリーンSC方向へ導き、スクリーンSC上に結像させる。
投射部20には、制御部30の制御に従って投射光学系23が備える各モーターを駆動する投射光学系駆動部16、および、制御部30の制御に従って照明光学系21が備える光源を駆動する光源駆動部14が接続されている。なお、投射光学系23の具体的構成は上記の例に限定されず、例えば凹面鏡を含むミラーを用いない構成により、光変調装置22で変調された光をレンズによってスクリーンSCに投射し、結像させることも可能である。
一方、画像処理系は、プロジェクター10全体を制御する制御部30を中心に、記憶部35、操作検出部17、画像処理部40、及び光変調装置駆動部15を備えている。記憶部35は、制御部30が実行する制御プログラム36、および、制御部30が処理するデータを記憶する。また、画像処理部40は、画像データ入力部11を介して入力された入力画像を処理し、光変調装置駆動部15は画像処理部40が処理した画像信号に基づいて光変調装置22を駆動して描画を行う。
操作検出部17は、リモコン受光部18および操作パネル19に接続され、リモコン受光部18及び操作パネル19を介した操作を検出する。
リモコン受光部18は、プロジェクター10の操作者が使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を、リモコン受光部18によって受光する。リモコン受光部18は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作データを生成し、制御部30に出力する。
操作パネル19は、プロジェクター10の外装筐体に設けられ、各種スイッチおよびインジケーターランプを有する。操作検出部17は、制御部30の制御に従い、プロジェクター10の動作状態や設定状態に応じて操作パネル19のインジケーターランプを適宜点灯或いは点滅させる。この操作パネル19のスイッチが操作されると、操作されたスイッチに対応する操作データが操作検出部17から制御部30に出力される。
制御部30は、画像データ入力部11から入力された画像データを画像処理部40に出力する。
画像処理部40は、画像入力部41、画像処理制御部42、描画処理部43及びフレームメモリー44を備えている。
画像入力部41は、入力された画像データをバッファーリングする。
画像処理制御部42は、画像入力部41に入力された画像データに対し、インターレース/プログレッシブ変換、解像度変換、色変換等の各種変換処理を適宜実行し、予め設定されたフォーマットの画像データを生成する。
描画処理部43は、画像処理制御部42により処理された画像データに基づいてフレームメモリー44にフレーム毎の画像を展開する。
フレームメモリー44に展開された画像データは、光変調装置駆動部15に出力される。また、描画処理部43は、フレームメモリー44に展開された画像データに対し、台形歪み補正や糸巻き型歪み補正を行っても良い。この場合、描画処理部43は、フレームメモリー44に展開された画像データを、例えば、台形歪み補正を補償する形状の台形に変形させる。更に、描画処理部43は、プロジェクター10が描画を行う動作モードにおいて、指示体70の操作位置の座標に従って、フレームメモリー44に展開された画像に図形等の画像を加え、或いは消去する編集を行い、画像を生成または更新する。これにより、指示体70の操作に応じた画像が描画されてスクリーンSCに投射される。
指示体70は、操作スイッチ72に加え、赤外線信号を出力する送信部74を備えている。送信部74は、例えば赤外LED等の発光部、発光制御回路、電源等を備える。送信部74は、指示体70の電源がオンになっている状態で、周期的に赤外線信号を送信する。送信部74は、操作スイッチ72の操作状態(オン/オフ)によって赤外線信号を変調し、例えばIrDA規格に準拠した方式により操作スイッチ72のオン/オフを示すデータを送信する。
プロジェクター10は、指示体70による指示動作を検出する検出部としての位置検出部50を備えている。位置検出部50は、撮像部51、受信部52、撮影制御部53、指示体検出部54、および座標算出部55の各部を備えて構成される。
撮像部51は、撮像光学系、撮像素子、インターフェイス回路等を有し、投射光学系23の投射方向を撮影する。撮像部51の撮像光学系は、投射光学系23と同じ方向を向いて配置され、投射光学系23がスクリーンSC上に画像を投射する範囲をカバーする画角を有する。また、撮像素子としてはCCDやCMOSが挙げられる。インターフェイス回路は、撮像素子の検出値を読み出して出力する。
撮影制御部53は、撮像部51により撮影を実行させて撮影画像データを生成する。撮影制御部53の制御により撮像部51が撮影を実行すると、スクリーンSC上に投射された画像とともに、スクリーンSC上またはその近傍で操作されている指示体70が撮影される。本実施形態1では、撮像部51の撮像素子は、赤外光を含む波長域に感度を有する。撮像部51は、撮像光学系により集光した赤外光の撮影画像データを出力する。
尚、撮像部51は可視光線の波長域に対する感度を有するものであっても良く、また、撮影対象は指示体70には限定されず、操作者の手指を撮影しても良い。
受信部52は、送信部74が送信した赤外線信号を受信してデコードし、受信データを出力する。受信部52が出力する受信データは、操作スイッチ72の操作状態を示すデータを含んでいる。
指示体検出部54は、撮影制御部53が生成する撮影画像データに基づいて、指示体70の位置を検出する。指示体検出部54は、撮影画像データから指示体70に似た形状を検出して指示体70の画像を切り出す処理を実行し、撮影画像データにおける指示体70の位置を特定する。ここで、指示体検出部54は、指示体70の先端が向いている方向を特定しても良い。また、指示体検出部54は、受信部52が出力する受信データに基づいて操作スイッチ72の操作状態を検出する。尚、指示体70の検出方法は、指示体70に似た形状を検出する方法には限定されず、ライトカーテンによる反射光の検出方法も想定できる。
ライトカーテンによる反射光の検出方法は、例えば、スクリーンSCの表面全体に亘って層状(又はカーテン状)の検出光(例えば、赤外光)を射出し、赤外光を反射する部位を有する指示体70で反射する反射光を撮影し、撮影した画像における反射光の位置から指示体70の位置を検出しても良い。ライトカーテンによる反射光の検出方法の詳細は、本発明の要旨ではないため省略する(かかる方式については、例えば、特開2015−159523号公報を参照)。
座標算出部55は、指示体検出部54が特定した撮影画像データにおける指示体70の位置に基づき、指示体70の先端がスクリーンSC上で指し示している位置の座標、すなわち操作位置の座標を算出する。具体的には、座標算出部55は、撮影画像データにおける操作位置に基づき、スクリーンSC上に投射部20が投射画像を投射する領域(投射範囲)を基準とする座標を算出する。座標算出部55は、算出した操作位置の座標、操作スイッチ72の操作状態等を示すデータを、制御部30に出力する。また、座標算出部55は、撮像部51により撮影された撮影画像データを制御部30に出力しても良い。
制御部30は、記憶部35に記憶された制御プログラム36を読み出して実行することにより、投射制御部31、検出制御部32、描画オブジェクト解析部33、及び、UI制御部34の機能を実現し、プロジェクター10の各部を制御する。
制御部30は、図示しないCPU(Central Processing Unit)、ROM(Read Only Memory)、DRAM(Dynamic Random Access Memory)等を備え、ROMに記憶した基本制御プログラムをDRAMに読み込み、CPUにより実行して、プロジェクター10を制御する。また、制御部30は、記憶部35に記憶されたプログラムを実行することにより、投射制御部31、検出制御部32、描画オブジェクト解析部33、及び、UI制御部34として機能する。
投射制御部31は、操作検出部17から入力される操作データに基づいて、操作者が行った操作の内容を取得する。投射制御部31は、操作者が行った操作に応じて画像処理部40、光変調装置駆動部15、投射光学系駆動部16および光源駆動部14を制御して、スクリーンSCに画像を投射させる。また、投射制御部31は、投射光学系駆動部16を制御して、投射光学系23によるフォーカス調整、ズーム調整、絞り調整等を実行させる。
検出制御部32は、位置検出部50を制御して、指示体70の操作位置の検出を実行させ、操作位置の座標と操作スイッチ72の操作状態とを検出する。
更に、検出制御部32は、指示体70の操作位置および操作スイッチ72の操作状態に基づいて、描画に関する所定の機能を実行させる。例えば、操作者のリモコン操作により、スクリーンSC上にメニュー(図示略)が重畳して投射され、投射されたメニューの中から操作者が指示体70を使って文字描画機能のメニューを選択した場合、検出制御部32は、指示体70の指示位置に基づいて手書き文字150を描画する文字描画機能を起動させても良い。
描画オブジェクト解析部33は、操作者が指示体70を操作してスクリーンSC上に描画した文字や図形等のオブジェクトを解析する。例えば、文字描画機能が起動され、オブジェクトとして手書き文字150がスクリーンSC上に描画された場合、描画オブジェクト解析部33は、描画された手書き文字150を解析し、スクリーンSC上での手書き文字150の描画方向を検出する。尚、描画方向は、手書き文字150が書き進められる方向を示し、手書き文字150がスクリーンSCに表示される表示方向と同一である。
手書き文字150の描画方向の検出方法は、例えば、手書き文字150の先頭から1文字に相当する画像を抽出し、抽出した画像から周知の光学文字認識技術(OCR技術)により文字を抽出し、抽出した文字の傾きを回転補正により算出しても良い。
描画オブジェクト解析部33は、算出した文字の傾きから手書き文字150の描画方向を決定する。
また、描画オブジェクト解析部33は、手書き文字150や図形を画像イメージとして構成する画素群から画像イメージの方向ベクトルを算出し、算出した方向ベクトルに基づいて描画方向を決定しても良い。
また、描画オブジェクト解析部33は、操作者が指示体70を把持してオブジェクトを描画する場合、撮像部51が撮影した指示体70の傾斜角度に基づいて、描画方向を決定しても良い。この場合、指示体70を把持して描画する場合の癖や習慣に関する情報を操作者毎に記憶部35に記憶し、操作者に応じて指示体70の傾斜角度を補正しても良い。
UI制御部34は、描画オブジェクト解析部33の解析結果に基づいて、スクリーンSCに投射するユーザーインターフェイス画面(UI画面)160に関して投射する位置や傾きを制御する。尚、UI画面160は、手書き文字150に対して所定の操作を行う機能を有し、第2の画像に相当する。
UI制御部34は、文字描画機能の描画動作が終了した場合、手書き文字150の描画方向と略一致するように、UI画面160を傾ける回転角度を算出し、算出した回転角度に基づいてUI画面160を回転させた状態で手書き文字150の近傍に投射させる。尚、UI制御部34において、手書き文字150の描画方向に対して表示態様の1つである回転角度を決定する機能は決定部に相当し、UI画面160を回転角度に基づいて回転させた状態で投射させる機能は表示制御部に相当する。尚、手書き文字150の描画方向に対して決定する表示態様は、回転角度のみには限定されない。例えば、手書き文字150の描画方向に応じて、UI画面160において選択可能な機能を変更しても良い。このような例として、手書き文字150の描画方向がスクリーンの平行方向に対して傾斜している場合には、UI画面160の機能として、手書き文字150の描画方向の傾斜をリセットする機能を選択可能とする態様も想定できる。
図3は、文字描画機能が起動された場合の処理(情報処理方法)の流れを示すフローチャートである。
この処理が開始されると、制御部30は、操作者による指示体70の移動に基づいてスクリーンSCにオブジェクトを描画する(ステップS200)。
次に、制御部30は、指示体70がスクリーンSCから離れて所定時間経過したか、否かを判定する(ステップS202)。
ここで、指示体70がスクリーンSCから離れて所定時間経過していない場合(ステップS202でNo)、ステップS200に戻り、文字描画機能を継続する。
他方で、指示体70がスクリーンSCから離れて所定時間経過した場合(ステップS202でYes)、制御部30は、描画されたオブジェクトの描画方向を算出する(ステップS204)。
次に、制御部30は、算出した描画方向に基づいてUI画面160の回転角度を算出する(ステップS206)。
次に、制御部30は、UI画面160を回転角度に応じて回転させ、オブジェクトから所定の距離内の近傍に投射させ(ステップS208)、一連の処理を終了する。
次に、図4〜図13を参照し、UI画面160の投射例を説明する。
図4は、文字描画機能の描画動作が終了した場合、スクリーンSCに投射される第1のUI画面160Aを示す。
操作者が指示体70を操作して手書き文字150を描画した後、指示体70をスクリーンSC上から離して所定の時間が経過した場合、検出制御部32は文字描画機能の描画動作の終了を判定する。UI制御部34は、検出制御部32の終了判定を受けて、第1のUI画面160Aを手書き文字150の近傍に投射させる。この場合、UI制御部34は、第1のUI画面160Aの向きが手書き文字150の描画方向と一致するように、第1のUI画面160Aを回転させる。
この第1のUI画面160Aは、描画した手書き文字150を編集するか、否かを問い合わせる画面である。操作者は、手書き文字150に対して編集を行いたい場合、はいボタン165を指示体70で指示することにより選択する。他方で、操作者は、手書き文字150に対して編集を行わない場合、いいえボタン167を指示体70で指示することにより選択する。
図5は、投射された第1のUI画面160Aに対して、はいボタン165が選択された場合、スクリーンSCに投射される第2のUI画面160Bを示す。
この場合、UI制御部34は、投射している第1のUI画面160Aに替えて、第2のUI画面160Bを手書き文字150の近傍に投射させる。この場合、UI制御部34は、第2のUI画面160Bの向きが手書き文字150の描画方向と一致するように、第2のUI画面160Bを回転させる。
この第2のUI画面160Bは、描画した手書き文字150に対する編集内容を操作者に選択させる画面である。第2のUI画面160Bは、選択することで指示可能なボタンとして、範囲選択ボタン162、拡縮選択ボタン164、戻すボタン166、色選択ボタン168およびキャンセルボタン169を有する。
範囲選択ボタン162は、手書き文字150に対して編集する範囲を設定するためのボタンである。拡縮選択ボタン164は、手書き文字150を拡大や縮小するためのボタンである。戻すボタン166は、アンドゥ機能、即ち、第2のUI画面160Bで編集した動作を取り消して、元の状態に戻すためのボタンである。色選択ボタン168は、手書き文字150の表示色を変更するためのボタンである。キャンセルボタン169は、第2のUI画面160Bによる編集を中断するためのボタンである。
図6は、投射された第2のUI画面160Bにおいて、範囲選択ボタン162が選択された場合、スクリーンSCに投射される画面を示す。
ここで、UI制御部34は、投射している第2のUI画面160Bに替えて、範囲指定ウィンドウ163Aを手書き文字150の近傍に投射させる。この場合、UI制御部34は、手書き文字150の描画方向と一致し、かつ、手書き文字150の全体を矩形が囲むように範囲指定ウィンドウ163Aを投射させる。
操作者は、範囲指定ウィンドウ163Aの矩形の一辺を指示し、移動させることで範囲指定ウィンドウ163Aが指定する範囲を変更できる。
図7は、範囲指定ウィンドウ163Bにより手書き文字150の一部が範囲指定された一例を示す。
即ち、図7では、範囲指定ウィンドウ163Aにおいて、手書き文字150の一部(この場合、「手書き」)を範囲から除外するように、矩形の一辺を移動させた状態を示している。尚、操作者は、矩形を構成する4辺の何れも指示して移動させることができる。
図8は、手書き文字150の一部を拡大する場合を示す。操作者は、範囲指定ウィンドウ163Cのように、手書き文字150の一部(この場合、「文字」)を範囲として指定すると共に、矩形の頂点を指示して任意の方向に移動させることで矩形の大きさ、即ち、文字の拡大率や縮小率を指定できる。UI制御部34は、指示体70がスクリーンSC上から離れて所定の時間が経過した場合、範囲の指定終了を検知し、第2のUI画面160Bを、手書き文字150の描画方向と一致させ、手書き文字150の近傍に投射させる。ここで、操作者は、第2のUI画面160Bの拡縮選択ボタン164を選択する。
この結果、図9に示すように、範囲指定ウィンドウ163Cで指定した範囲に含まれる手書き文字150の指定部分154は、範囲指定ウィンドウ163Cの大きさに合わせて拡大される。他方で、範囲指定ウィンドウ163Cで指定されない手書き文字150の非指定部分152の大きさは変化しない。
上記では、拡縮選択ボタン164が選択された場合を説明したが、例えば、色選択ボタン168が選択された場合には、範囲指定ウィンドウ163Aに替えて、色指定ウィンドウ(図示は略す)が投射され、操作者は色指定ウィンドウから所望の色を選択すると、範囲指定された手書き文字150の所定領域の文字色が所望の色に変更される。
図10は、文字描画機能により複数の手書き文字150A,150Bが描画された場合の第2のUI画面160Bの投射例1を示す。この場合、第1の操作者により手書き文字150Bが最初に描画され、次に、第2の操作者により手書き文字150Aが描画された場合を想定する。この場合、手書き文字150Aが描画されて指示体70がスクリーンSC上から離れて所定の時間が経過した場合、UI制御部34は、第1のUI画面160Aに続いて第2のUI画面160Bを、手書き文字150Aの描画方向に合致させ、かつ、手書き文字150Aの近傍に投射させる。
ここで、図11に示すように、操作者が手書き文字150Bの下部にアンダーライン156を描画した場合、UI制御部34は、第2のUI画面160Bを、アンダーライン156の描画方向と一致し、かつ、手書き文字150Bの近傍に投射させる。尚、描画方向は、アンダーライン156が描画された最近傍のオブジェクトである手書き文字150Bと同一方向であっても良い。
図12は、文字描画機能により複数の手書き文字150A,150Bが描画された場合の第2のUI画面160Bの投射例2を示す。
この場合、手書き文字150Bが最初に描画され、次に、手書き文字150Aが描画された場合を想定する。この場合、手書き文字150Aが描画されて指示体70がスクリーンSC上から離れて所定の時間が経過した場合、UI制御部34は、第1のUI画面160Aに続いて第2のUI画面160Bを、手書き文字150Aの描画方向に合致させ、かつ、手書き文字150Aの近傍に投射させる。
ここで、図13に示すように、操作者が手書き文字150Aおよび手書き文字150Bを含む閉領域158を指示体70で描画した場合、UI制御部34は、閉領域158に含まれる手書き文字150Aおよび手書き文字150Bのようなオブジェクトの位置に基づいて、第1のUI画面160Aや第2のUI画面160Bを描画する。
この場合、閉領域158に含まれるオブジェクト全体の重心位置や、閉領域158の重心位置から最も近いオブジェクト(例えば、手書き文字150A)の近傍位置に第2のUI画面160Bを描画しても良い。また、第1のUI画面160Aや第2のUI画面160Bの回転角度は、それぞれのオブジェクトの描画方向の合成であっても良い。また、オブジェクト全体の重心位置に最も近いオブジェクトの描画方向に合わせても良い。
以上述べた実施形態1によれば、以下のような効果を奏する。
(1)プロジェクター10は、指示体70による指示動作に基づいて描画された手書き文字150をスクリーンSCに投射して表示し、手書き文字150がスクリーンSCに表示されている描画方向に基づいて、手書き文字150を操作するためのUI画面160の描画方向を決定し、決定した描画方向に基づいてUI画面160をスクリーンSCに表示する。従って、UI画面160の描画方向は、手書き文字150の描画方向に基づいて決定されるため、手書き文字150を描画したユーザーに対してUI画面160の視認性が向上し、UI画面160に対するユーザーの操作性を向上させることができる。
(2)UI画面160は手書き文字150の描画方向と一致するように表示されるため、ユーザーは、手書き文字150と正対した状態でUI画面160からの操作指示を容易にできる。
(3)UI画面160は手書き文字150に接近して表示されるため、手書き文字150に対応するUI画面160の視認性が向上する。
(4)UI画面160から手書き文字150に対して表示色、拡大、縮小および範囲指定の少なくとも1つを指示できる。
(5)複数の手書き文字150が表示されている場合、UI画面160の描画方向は指示動作が指示した手書き文字150に基づいて決定される。
(実施形態2)
次に、本発明の実施形態2について説明する。尚、以下の説明では、既に説明した部分と同じ部分については、同一符号を付してその説明を省略する。
図14は、プロジェクションシステム1の構成を示す図である。実施形態1では、プロジェクションシステム1はプロジェクター10を備えた構成、即ち、単体で構成したが、実施形態2では、プロジェクションシステム1はプロジェクター10およびコンピューター装置100のように複数の装置で構成する。
コンピューター装置100は、情報処理装置の1つであり、制御部101、記憶部110、外部インターフェイス(以下、「外部I/F」と略記する)109、入力部106、表示処理部107およびモニター108を備える。尚、コンピューター装置100は、パーソナルコンピューターやタブレット端末の態様を想定する。
制御部101は、CPU、CPUが実行する基本制御プログラム等を記憶したROM、および、CPUが実行するプログラムやCPUが処理するデータ等を一時的に格納するRAM等により実現される。実施形態1では、プロジェクター10の制御部30が検出制御部32、描画オブジェクト解析部33およびUI制御部34を備えたが、本実施形態2では、コンピューター装置100の制御部101が検出制御部32、描画オブジェクト解析部33およびUI制御部34を備える。
入力部106は、キーボードおよびマウス等のポインティングデバイスを含む入力デバイスによる入力操作を検出する。表示処理部107は、入力部106が検出した入力操作の内容や制御部101による処理結果等をモニター108に表示する。また、記憶部110は、制御部101が実行する制御プログラム111を含む各種のプログラム、これらのプログラムにより処理されるデータ等を不揮発的に記憶する。
外部I/F109は、プロジェクター10が備えるインターフェイス部(以下、「I/F部」と略記する)12と、ケーブル1aを介して通信可能に接続される。尚、外部I/F109は、実施形態1に記載した画像データ入力部11の機能に加え、プロジェクター10との間で制御情報等を送受信する機能を有する。
制御部101は、制御プログラム111を実行することにより、プロジェクター10を制御する制御信号を生成し、プロジェクター10に送信する。プロジェクター10は、制御信号を受信し、制御信号に基づいて種々の動作を実行する。
また、制御部101は、プロジェクター10で投射する画像データを生成し、生成した画像データをプロジェクター10に送信する。プロジェクター10は、画像データを受信し、画像データに基づいて画像を投射する。
更に、検出制御部32は、撮像部51が検出した指示体70の指示位置を示す検出情報を受信する。そして、描画オブジェクト解析部33は、検出情報が示す指示位置に基づいて、操作者が指示体70を操作してスクリーンSC上に描画したオブジェクトを解析する。UI制御部34は、描画オブジェクト解析部33の解析結果に基づいて、スクリーンSCに投射するUI画面160に関して投射する位置や傾きをプロジェクター10の制御部30に指示する。
この場合、UI制御部34はUI画面160の回転角度を算出し、算出した回転角度をプロジェクター10に出力する。即ち、UI画面160を回転させる処理はプロジェクター10の制御部30が行うが、この態様には限定されない。
例えば、UI制御部34はUI画面160の回転角度を算出し、回転角度に基づいて回転させたUI画面160を生成し、プロジェクター10に出力する。プロジェクター10はコンピューター装置100から出力されるUI画面160を表示しても良い。即ち、コンピューター装置100のUI制御部34がUI画面160を回転させる処理を行い、プロジェクター10はUI画面160を回転させる処理を行わない態様も想定できる。
以上述べた実施形態2は、実施形態1で述べた効果(1)から(5)に加え、以下の効果を奏する。
(6)検出制御部32、描画オブジェクト解析部33およびUI制御部34がコンピューター装置100側に構成されるため、手書き文字150の回転角度を検出し、UI画面160を検出した回転角度で回転させて手書き文字150の近傍に投射する処理を迅速にできる。
以上、本発明を図示した実施形態に基づいて説明したが、本発明は、本実施形態に限定されるものではなく、以下に述べるような変形例も想定できる。
(1)表示手段は、プロジェクター10による投射には限定されず、液晶表示体を備えたタッチパネルも想定できる。
(2)光変調装置22は、RGBの各色に対応した3枚の透過型の液晶パネルを用いた構成を例に挙げて説明したが、これに限定されるものではない。例えば、3枚の反射型液晶パネルを用いた構成としても良いし、1枚の液晶パネルとカラーホイールを組み合わせた方式を用いても良い。あるいは、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスとカラーホイールを組み合わせたDMD方式等により構成しても良い。光変調装置22として1枚のみの液晶パネルまたはDMDを用いる場合には、クロスダイクロイックプリズム等の合成光学系に相当する部材は不要である。また、液晶パネルおよびDMD以外にも、光源が発した光を変調可能な光変調装置22であれば採用できる。
また、図2に示した制御部30や、図14に示した制御部30,101の各機能部は、ハードウェアとソフトウェアとの協働により実現される機能的構成を示すものであって、具体的な実装形態は特に制限されない。従って、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。
1…プロジェクションシステム、1a…ケーブル、10…プロジェクター、11…画像データ入力部、12…I/F部、14…光源駆動部、15…光変調装置駆動部、16…投射光学系駆動部、17…操作検出部、18…リモコン受光部、19…操作パネル、20…投射部、21…照明光学系、22…光変調装置、23…投射光学系、30…制御部、31…投射制御部、32…検出制御部、33…描画オブジェクト解析部、34…UI制御部、35…記憶部、36…制御プログラム、40…画像処理部、41…画像入力部、42…画像処理制御部、43…描画処理部、44…フレームメモリー、50…位置検出部、51…撮像部、52…受信部、53…撮影制御部、54…指示体検出部、55…座標算出部、70…指示体、71…軸部、72…操作スイッチ、74…送信部、100…コンピューター装置、101…制御部、106…入力部、107…表示処理部、108…モニター、110…記憶部、111…制御プログラム、150…手書き文字、150A,150B…手書き文字、152…非指定部分、154…指定部分、156…アンダーライン、158…閉領域、160…UI画面、160A…第1のUI画面、160B…第2のUI画面、162…範囲選択ボタン、163A,163B,163C…範囲指定ウィンドウ、164…拡縮選択ボタン、165…はいボタン、166…戻すボタン、167…いいえボタン、168…色選択ボタン、169…キャンセルボタン。

Claims (9)

  1. 指示動作を検出する検出部と、
    前記指示動作に基づく第1の画像を表示する表示部と、
    前記表示部における前記第1の画像の表示方向に基づいて、前記第1の画像を操作する第2の画像の表示態様を決定する決定部と、
    前記決定部が決定した前記表示態様に基づいて前記第2の画像を前記表示部に表示させる表示制御部と、を備えることを特徴とする表示装置。
  2. 請求項1に記載の表示装置において、
    前記決定部は、前記表示方向が前記第1の画像と一致するように、前記第2の画像の前記表示態様を決定することを特徴とする表示装置。
  3. 請求項1乃至2のいずれかに記載の表示装置において、
    前記表示制御部は、前記表示態様に基づいて前記第2の画像を回転させ、回転させた前記第2の画像を前記第1の画像の近傍に表示させることを特徴とする表示装置。
  4. 請求項1乃至3のいずれか1項に記載の表示装置において、
    前記第2の画像は、前記第1の画像に対して表示色、拡大、縮小および範囲指定の少なくとも1つが指示可能であることを特徴とする表示装置。
  5. 請求項1乃至4のいずれか1項に記載の表示装置において、
    前記決定部は、前記表示部に複数の前記第1の画像が表示されている場合、前記指示動作が指示する前記第1の画像に基づいて前記第2の画像の前記表示態様を決定することを特徴とする表示装置。
  6. 請求項5に記載の表示装置において、
    前記決定部は、前記指示動作が複数の前記第1の画像の1つを指示した場合、指示された前記第1の画像の前記表示方向と一致するように前記第2の画像の前記表示態様を決定することを特徴とする表示装置。
  7. 請求項5に記載の表示装置において、
    前記決定部は、前記指示動作が複数の前記第1の画像を指示した場合、複数の前記第1の画像の方向に基づいて前記第2の画像の前記表示態様を決定することを特徴とする表示装置。
  8. 指示動作に基づいて表示された第1の画像を処理する情報処理装置であって、
    表示された前記第1の画像の表示方向に基づいて、前記第1の画像を操作する第2の画像の表示態様を決定する決定部と、
    前記決定部が決定した前記表示態様に基づいて前記第2の画像を表示させる表示制御部と、を備えることを特徴とする情報処理装置。
  9. 指示動作を検出し、前記指示動作に基づく第1の画像を表示し、表示された前記第1の画像の表示方向に基づいて、前記第1の画像を操作する第2の画像の表示態様を決定し、決定した前記表示態様に基づいて前記第2の画像を表示することを特徴とする情報処理方法。
JP2016190778A 2016-09-29 2016-09-29 表示装置、情報処理装置および情報処理方法 Withdrawn JP2018054880A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016190778A JP2018054880A (ja) 2016-09-29 2016-09-29 表示装置、情報処理装置および情報処理方法
US15/714,644 US10410323B2 (en) 2016-09-29 2017-09-25 Display apparatus, information processing apparatus, and information processing method for displaying a second image that includes options for manipulating a first image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016190778A JP2018054880A (ja) 2016-09-29 2016-09-29 表示装置、情報処理装置および情報処理方法

Publications (2)

Publication Number Publication Date
JP2018054880A true JP2018054880A (ja) 2018-04-05
JP2018054880A5 JP2018054880A5 (ja) 2019-09-19

Family

ID=61686528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016190778A Withdrawn JP2018054880A (ja) 2016-09-29 2016-09-29 表示装置、情報処理装置および情報処理方法

Country Status (2)

Country Link
US (1) US10410323B2 (ja)
JP (1) JP2018054880A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020173794A (ja) * 2019-04-11 2020-10-22 株式会社リコー 手書き入力装置、手書き入力方法、プログラム
JP2020201901A (ja) * 2019-06-13 2020-12-17 株式会社リコー 表示装置、方向特定方法、プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250434A (ja) * 1999-02-26 2000-09-14 Sharp Corp 携帯型情報機器および重力方向検出器
JP2012185630A (ja) * 2011-03-04 2012-09-27 Nikon Corp 投影装置
JP2015041336A (ja) * 2013-08-23 2015-03-02 シャープ株式会社 インターフェイス装置、インターフェイス方法、インターフェイスプログラム、及び、そのプログラムを記憶したコンピュータ読取可能な記録媒体
JP2016504657A (ja) * 2012-11-16 2016-02-12 グーグル インコーポレイテッド 画像の方向を修正するための画像内容に基づく画像の回転

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006164179A (ja) 2004-12-10 2006-06-22 Nippon Telegr & Teleph Corp <Ntt> 情報提示装置及び情報提示方法
JP5235144B2 (ja) 2009-01-27 2013-07-10 株式会社日本総合研究所 会議支援装置、会議支援方法及びコンピュータプログラム
JP2013125553A (ja) 2011-12-15 2013-06-24 Toshiba Corp 情報処理装置、記録プログラム
JP6327834B2 (ja) 2013-11-01 2018-05-23 シャープ株式会社 操作表示装置、操作表示方法及びプログラム
JP2016122345A (ja) * 2014-12-25 2016-07-07 株式会社リコー 画像投影装置、及び対話型入出力システム。

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250434A (ja) * 1999-02-26 2000-09-14 Sharp Corp 携帯型情報機器および重力方向検出器
JP2012185630A (ja) * 2011-03-04 2012-09-27 Nikon Corp 投影装置
JP2016504657A (ja) * 2012-11-16 2016-02-12 グーグル インコーポレイテッド 画像の方向を修正するための画像内容に基づく画像の回転
JP2015041336A (ja) * 2013-08-23 2015-03-02 シャープ株式会社 インターフェイス装置、インターフェイス方法、インターフェイスプログラム、及び、そのプログラムを記憶したコンピュータ読取可能な記録媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020173794A (ja) * 2019-04-11 2020-10-22 株式会社リコー 手書き入力装置、手書き入力方法、プログラム
JP7452155B2 (ja) 2019-04-11 2024-03-19 株式会社リコー 手書き入力装置、手書き入力方法、プログラム
JP2020201901A (ja) * 2019-06-13 2020-12-17 株式会社リコー 表示装置、方向特定方法、プログラム
JP7275885B2 (ja) 2019-06-13 2023-05-18 株式会社リコー 表示装置、方向特定方法、プログラム

Also Published As

Publication number Publication date
US10410323B2 (en) 2019-09-10
US20180089805A1 (en) 2018-03-29

Similar Documents

Publication Publication Date Title
JP6064319B2 (ja) プロジェクター、及び、プロジェクターの制御方法
JP6307852B2 (ja) 画像表示装置、及び、画像表示装置の制御方法
US10431131B2 (en) Projector and control method for projector
JP6343910B2 (ja) プロジェクター、及び、プロジェクターの制御方法
US10015457B2 (en) Projector and control method with a starting reference position in a lower part of a target image
JP5970700B2 (ja) プロジェクター、プロジェクターの制御方法、プログラム、および、プロジェクションシステム
US11282422B2 (en) Display device, and method of controlling display device
WO2016157803A1 (ja) 表示装置、表示装置の制御方法、書画カメラ、及び、書画カメラの制御方法
JP2018036471A (ja) 表示装置、表示システム及び表示装置の制御方法
JP6051828B2 (ja) 表示装置、及び、表示装置の制御方法
JP6350175B2 (ja) 位置検出装置、プロジェクター、及び、位置検出方法
US20150279336A1 (en) Bidirectional display method and bidirectional display device
US10410323B2 (en) Display apparatus, information processing apparatus, and information processing method for displaying a second image that includes options for manipulating a first image
JP6269801B2 (ja) プロジェクター、及び、プロジェクターの制御方法
JP2013130915A (ja) 表示装置、プロジェクター、画像表示方法及び表示システム
JP6569259B2 (ja) 位置検出装置、表示装置、位置検出方法、及び、表示方法
JP2012181721A (ja) 位置入力装置、プロジェクター、プロジェクターの制御方法、及び、表示システム
JP2018132769A (ja) 画像表示装置、及び、画像表示装置の制御方法
JP6255810B2 (ja) 表示装置、及び、表示装置の制御方法
JP6098153B2 (ja) 表示装置、及び、表示装置の制御方法
JP2018025665A (ja) 表示装置、表示システム、制御装置、表示方法および表示プログラム
JP6056447B2 (ja) 表示装置、及び、表示装置の制御方法
JP6291911B2 (ja) 位置検出装置、及び、位置検出方法
JP6111682B2 (ja) 表示装置、および、表示装置の制御方法
JP6524741B2 (ja) 位置検出装置、表示装置、位置検出装置の制御方法、及び、表示装置の制御方法

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180910

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190807

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190807

RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20200803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210802

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210915

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20220214