WO2016152300A1 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
WO2016152300A1
WO2016152300A1 PCT/JP2016/054001 JP2016054001W WO2016152300A1 WO 2016152300 A1 WO2016152300 A1 WO 2016152300A1 JP 2016054001 W JP2016054001 W JP 2016054001W WO 2016152300 A1 WO2016152300 A1 WO 2016152300A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
unit
visible image
control unit
Prior art date
Application number
PCT/JP2016/054001
Other languages
English (en)
French (fr)
Inventor
宏史 古谷
Original Assignee
京セラドキュメントソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラドキュメントソリューションズ株式会社 filed Critical 京セラドキュメントソリューションズ株式会社
Publication of WO2016152300A1 publication Critical patent/WO2016152300A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators

Definitions

  • the present invention relates to an information processing apparatus, and more particularly to a technique for forming an image as a visible image in the air.
  • Patent Document 1 discloses an information processing apparatus that forms a visible image in the air and displays necessary information.
  • Patent Document 2 discloses an information processing apparatus that displays necessary information by forming a visible image in a space in an automobile.
  • the information processing apparatus disclosed in Patent Document 4 below receives and reflects light emitted from an object or a display device, and is positioned symmetrically with the object or display device with the optical imaging device interposed therebetween. By converging the reflected light, an object image is formed in the air.
  • a general display such as a liquid crystal display (LCD: Liquid Crystal Display) or an organic EL (OLED: Organic Light-Emitting Diode) display
  • LCD Liquid Crystal Display
  • OLED Organic Light-Emitting Diode
  • a display having a touch panel function is generally arranged with its display surface facing upward. Information contained in the displayed image can be transmitted only to a person in front of the information processing apparatus.
  • an image formed in the air as a visible image is generally inferior in resolution as compared with an image displayed on a general display. For this reason, it may not be preferable to form all the images that have been displayed on a conventional display as a visible image in the air.
  • the present invention has been made in view of the above circumstances, and an object thereof is to make it possible to form a user-desired image as a visible image in the air among images displayed on a general display.
  • An information processing apparatus includes a display, a visible image forming unit, a display control unit, and a reception unit.
  • the display has a display surface and displays an image on the display surface.
  • the visible image forming unit forms a visible image in the air.
  • the display control unit controls operations of the display and the visible image forming unit.
  • the reception unit receives a user operation.
  • the display control unit is designated by the first user operation among images displayed on the display surface of the display when the receiving unit receives a predetermined first user operation.
  • a visible image representing an image in the range is formed on the visible image forming unit.
  • an image desired by a user can be formed in the air as a visible image.
  • FIG. 1 is a perspective view illustrating an appearance of an image forming apparatus according to an embodiment of the present invention.
  • 1 is a functional block diagram illustrating a main internal configuration of an image forming apparatus according to an embodiment of the present invention.
  • FIG. 6 is a diagram illustrating an example of an operation screen displayed on the display unit of the image forming apparatus according to the embodiment of the present invention. It is a figure which shows an example of the visible image which the visible image formation part of the image forming apparatus concerning one Embodiment of this invention forms. 6 is a flowchart showing a flow of operations in an operation screen display process and a visible image formation process by the image forming apparatus according to the embodiment of the present invention.
  • FIG. 6 is a diagram illustrating an example of an operation screen displayed on the display unit of the image forming apparatus according to the embodiment of the present invention.
  • FIG. 6 is a diagram illustrating an example of an operation screen displayed on the display unit of the image forming apparatus according to the embodiment of the present invention.
  • FIG. 3 is a diagram of a display unit of the image forming apparatus according to the embodiment of the present invention as viewed from obliquely above.
  • FIG. 3 is a diagram of a display unit of the image forming apparatus according to the embodiment of the present invention as viewed from obliquely above.
  • 10 is a flowchart showing a flow of operations in display processing of an operation screen and visible image formation processing of an image forming apparatus according to a modified example.
  • the image forming apparatus 1 is a multifunction machine having a plurality of functions such as a facsimile communication function, a copy function, a printer function, and a scanner function. As shown in FIG. 1, the image forming apparatus 1 includes an apparatus main body 2, an image reading unit 5 disposed above the apparatus main body 2, and a connecting unit provided between the image reading unit 5 and the apparatus main body 2. 3.
  • the housing 7 includes an image reading unit 5, an image forming unit 12, a paper feeding unit 30, an image memory 32, a network interface unit 91, an HDD (Hard Disk Drive) 92, a control unit 10, and the like. Is housed.
  • the image reading unit 5 includes a document conveyance unit 6 and optically reads a document conveyed by the document conveyance unit 6 or a document placed on a contact glass (not shown).
  • the image reading unit 5 acquires image data that is an image formation target by reading one document at a time.
  • the paper feeding unit 30 includes a paper feeding cassette (not shown) and a feeding roller, and conveys recording sheets stored in the paper feeding cassette one by one toward the image forming unit 12 by the feeding roller.
  • the image forming unit 12 includes a photosensitive drum (not shown), a charging device, an exposure device, a developing device, and a transfer device, and is sent from an image read by the image reading unit 5 or a personal computer connected to a network. An image is formed (printed) on the recording paper supplied from the paper supply unit 30 using the print target data. The recording paper on which the image has been formed is discharged to the discharge tray 4 after undergoing a fixing process by a fixing unit (not shown).
  • the image memory 32 is an area for temporarily storing image data obtained by reading an original by the image reading unit 5 and temporarily storing image data to be image-formed by the image forming unit 12.
  • the network interface unit 91 includes a communication module such as a LAN board.
  • the network interface unit 91 transmits / receives various data to / from the computer 200 in the local area via a connected LAN or the like.
  • the HDD (Hard Disk Drive) 92 is a large-capacity storage device that stores image data and the like obtained by document reading by the image reading unit 5.
  • the control unit 10 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like.
  • the control unit 10 functions as the control unit 100, the display control unit 101, and the reception unit 104 when a control program stored in the ROM or the HDD 92 is executed by the CPU.
  • each said structure of the control unit 10 may each be comprised by a hard circuit irrespective of the operation
  • the control unit 100 is connected to the image reading unit 5, the image forming unit 12, the paper feeding unit 30, the image memory 32, the network interface unit 91, the HDD 92, and the like. It has a function of transmitting / receiving a signal or data to / from each mechanism.
  • the display control unit 101 has a function of controlling operations of a display unit 471 and a visible image forming unit 50 described later.
  • the display control unit 101 includes a formation position calculation unit 102 and a laser light source control unit 103 as a configuration for controlling the operation of the visible image forming unit 50. Detailed contents of the formation position calculation unit 102 and the laser light source control unit 103 will be described later.
  • the reception unit 104 has a function of receiving a user operation input by the operation unit 47 described later and a user operation detected by the operation detection unit 54 described later.
  • the image forming apparatus 1 further includes an operation unit 47 including a display unit 471 (display) and physical keys 472 on the front surface of the casing 7 that forms the outline of the image forming device 1.
  • an operation unit 47 including a display unit 471 (display) and physical keys 472 on the front surface of the casing 7 that forms the outline of the image forming device 1.
  • the display unit 471 is composed of a liquid crystal display or an organic EL display, and is arranged with its display surface facing upward.
  • the display unit 471 displays an operation screen related to image formation, document reading, and the like on the display surface based on control by the display control unit 101.
  • the physical keys 472 are, for example, an arrow key that moves the focus of the GUI that configures the operation screen, a determination key that performs a confirmation operation on the GUI that configures the operation screen, a numerical key, and the like.
  • the physical key 472 functions as an operation unit that receives an operation on the operation screen displayed on the display surface of the display unit 471 from the user.
  • a touch panel (not shown) is disposed on the upper surface of the display surface of the display unit 471.
  • the touch panel is a so-called resistive film type or capacitive type touch panel.
  • the touch panel detects contact by the user on the display surface of the display unit 471 together with the contact position.
  • the touch panel outputs a detection signal indicating the coordinate position of the contact point to the reception unit 104 or the like.
  • the touch panel includes a touch panel that detects a finger or the like when a user's finger or the like approaches a certain distance from the display surface without direct contact with the display surface.
  • “contact” as used in this embodiment includes a state in which the touch panel function detects that a finger or the like has approached the above-mentioned fixed distance even when there is no contact with the display surface. Shall be.
  • a visible image forming unit 50 is further disposed on the front surface of the casing 7 that forms the outer shell of the image forming apparatus 1.
  • the visible image forming unit 50 forms a visible image in the air.
  • the visible image forming unit 50 intermittently emits invisible laser light, condenses the laser light with a lens, a mirror, or the like to generate plasma, and the visible light emitted from the plasma produces characters, A visible image such as an image is formed in the air (the visible image forming method is disclosed in, for example, Japanese Patent Application Laid-Open Nos. 2003-233339 and 2007-206588).
  • the visible image forming unit 50 includes an optical imaging device, receives and reflects light emitted from the display device, and is symmetrical with the display device with the optical imaging device interposed therebetween.
  • An object image is formed in the air by converging the reflected light at a position (a visible image forming method is disclosed in, for example, Japanese Patent Application Laid-Open No. 2013-127625).
  • a visible image forming method is disclosed in, for example, Japanese Patent Application Laid-Open No. 2013-127625.
  • description will be made assuming that the visible image forming unit 50 has the configuration (1).
  • the visible image forming unit 50 includes a laser light source unit 51 and an operation detection unit 54.
  • the laser light source 51 includes a laser light source (not shown) that emits a laser beam, a lens or mirror (not shown) that collects laser light from the laser light source to generate plasma, a laser light source, the lens, A scanning mechanism (not shown) for scanning a mirror or the like.
  • the laser light source unit 51 emits an invisible laser beam under the control of the display control unit 101. Then, the laser light source unit 51 generates plasma by condensing the laser light with a lens, a mirror, or the like, and the operation screen including characters, images, and the like is made into the air as a visible image by visible light emitted from the plasma. Form.
  • the formation position calculation unit 102 of the display control unit 101 is configured so that the visible image indicating the operation screen is formed at a predetermined visible image formation position (position coordinates on a predetermined three-dimensional space coordinate system).
  • the laser light emission direction and the emission position by the laser light source unit 51 are calculated. That is, the formation position calculation unit 102 calculates at what visible image formation position the plasma is generated by the laser light source unit 51.
  • the laser light source control unit 103 of the display control unit 101 controls the laser light source unit 51 in order to cause the gas existing in the laser light emission direction and emission position calculated by the formation position calculation unit 102 to emit plasma. Since the visible image is generated by the bright spot generated at the intersection of the two laser beams, the laser light source control unit 103, for example, so that the position of the bright spot is a position corresponding to each pixel constituting the image, The laser light source 51 is driven and controlled while adjusting the timing of emitting the two laser lights.
  • FIG. 3A is a diagram illustrating an example of an operation screen displayed on the display unit 471
  • FIG. 3B is a diagram illustrating an example of a visible image formed by the visible image forming unit 50.
  • an operation screen D1 indicating print job log information is displayed on the display unit 471.
  • a predetermined visualization instruction operation (first user operation) is input to the operation screen D1 by the touch panel function, and the reception unit 104 receives the visualization instruction operation.
  • the display control unit 101 causes the visible image forming unit 50 to display the visible image E1 representing the image in the range specified by the visualizing instruction operation in the operation screen D1 displayed on the display unit 471. Form (see FIG. 3B). Further, the display control unit 101 causes the display unit 471 to display the operation screen D2 excluding the range of images specified by the visualization instruction operation from the operation screen D1. As a result, a part of the operation screen displayed on the display unit 471 is visually recognized by the user as if it has stood up from the display unit 471.
  • the operation detection unit 54 when the visible image is formed by the visible image forming unit 50, the operation detection unit 54 is in a state where the user's hand is positioned at the display position of the visible image. It has a function of detecting a pseudo touch operation (user operation). The operation detection unit 54 outputs to the reception unit 104 the fact that the pseudo touch operation has been detected and the position information of the pseudo touch operation.
  • the operation detection unit 54 drives an imaging lens (not shown) that forms an image of light from a subject, an imaging device (not shown) that photoelectrically converts a subject image formed by the imaging lens, and the imaging device.
  • An imaging unit having a circuit (not shown) or the like is included.
  • the operation detection unit 54 is disposed at a position close to the laser light source unit 51, and is within a certain range of the three-dimensional space from a predetermined formation position where a visible image is formed by the laser beam emitted from the laser light source unit 51. Image.
  • the operation detection unit 54 performs image processing such as binarization processing and pattern matching based on grayscale information on the captured image, and determines an image such as a user's hand.
  • the operation detection unit 54 determines whether or not the image of the user's hand is included in the captured image by pattern matching between the captured image and the basic image stored in advance by the operation detection unit 54. .
  • the operation detection unit 54 detects the position of the image of the hand as position coordinates in predetermined three-dimensional space coordinates. Then, the operation detection unit 54 determines whether there is a portion where the position of the image of the hand overlaps with a predetermined spatial position where an operation screen as a visible image is formed. When there is an overlapping portion, the operation detection unit 54 detects that there is a pseudo touch operation on the operation screen.
  • FIG. 4 is a flowchart showing a flow of operations in the operation screen display process and the visible image formation process of the image forming apparatus 1.
  • the display control unit 101 displays an operation screen on the display unit 471 (step S10).
  • the reception unit 104 receives a visualization instruction operation (YES in step S11)
  • the display control unit 101 allows a visible image representing an image in a range specified by the visualization instruction operation. It forms in the visual image formation part 50 (step S12).
  • the accepting unit 104 may accept another gesture operation such as a tap operation input using the touch panel function as a visualization instruction operation.
  • the accepting unit 104 may accept an operation input using the physical key 472 as a visualization instruction operation.
  • the receiving unit 104 receives an image displayed in a range located on the upper side from the start position of the visualization instruction operation as an image in the range specified by the visualization instruction operation has been described.
  • the accepting unit 104 may accept an image displayed in a predetermined direction (for example, the downward direction) from the start position of the visualization instruction operation as an image in a range specified by the visualization instruction operation. .
  • FIG. 6A and FIG. 6B are views of the display unit 471 viewed from obliquely above.
  • the display control unit 101 When the reception unit 104 receives the visualization instruction operation illustrated in FIG. 5B, the display control unit 101 is displayed on the visible image forming unit 50 in the range A in the operation screen D1 displayed on the display unit 471. A visible image E1 representing the image to be displayed is formed.
  • the display control unit 101 sets the visible image forming unit 50 so that the lower end of the visible image E1 is located at the start point position of the visible image instructing operation on the display unit 471 or above the start point position. To form a visible image E1.
  • the display control unit 101 causes the display unit 471 to display the operation screen D2 excluding the range of images specified by the visualization instruction operation from the operation screen D1.
  • the state shown in FIG. 6A transitions to the state shown in FIG. 6B.
  • a part of the operation screen displayed on the display unit 471 is visually recognized by the user as if it has stood up from the display unit 471.
  • the user can display an image in a desired range in the operation screen displayed on the display unit 471 as a visible image in a space above the display unit 471.
  • a display unit 471 having a touch panel function is generally arranged with its display surface facing upward as shown in FIG. Information contained in the operation screen displayed on the display unit 471 can be transmitted only to the person in front of the image forming apparatus 1.
  • the operation screen displayed on the display unit 471 can be formed in the air as a visible image, so that the person who is away from the image forming apparatus 1 is also included in the operation screen. Information can be transmitted.
  • an image formed in the air as a visible image has a lower resolution than an image displayed on the display unit 471, all of the operation screens displayed on the display unit 471 are formed in the air as a visible image. It may not be preferable.
  • a desired range for example, a range desired to be shown to a person away from the image forming apparatus 1
  • step S ⁇ b> 12 when the receiving unit 104 receives a predetermined visualization cancellation operation (YES in step S ⁇ b> 13), the display control unit 101 visualizes the image.
  • the process is stopped (step S14), and the process returns to step S10.
  • the accepting unit 104 accepts, for example, a downward swipe operation input by the touch panel function as a visible image canceling operation.
  • the display control unit 101 determines whether private information is included in the image to be visualized (step S20).
  • the private information is personal information such as name, age, and gender.
  • the HDD 92 stores in advance whether each piece of information included in the operation screen to be displayed is private information.
  • the display control unit 101 refers to the information stored in the HDD 92 and determines whether private information is included in the image to be visualized.
  • user names such as “Ichiro Suzuki”, “Taro Yamada”, and “Hanako Maeda” correspond to the private information.
  • the display control unit 101 When private information is included in the image to be visualized (YES in step S20), the display control unit 101 indicates that private information is included in an image in a range indicating private information. Replace with an image (step S21). By the processing in step S21, the image in the range indicating the private information is removed from the image to be visualized. Note that the display control unit 101 may replace the image in the range indicating the private information with a blank image.
  • a visible image representing the image generated by step S21 is formed on the visible image forming unit 50 (step S12).
  • the visible image formation unit 50 displays “Ichiro Suzuki”, “Taro Yamada”, and “Hanako Maeda”, which are images in a range indicating private information.
  • a visible image E2 indicating an image in which the user name is replaced with the description of “Private information” that is an image indicating that private information is included is formed (see FIG. 8).
  • the display control unit 101 displays an image in a range indicating private information on the display unit 471.
  • the reception unit 104 performs a private operation that is a user operation detected by the operation detection unit 54 and touches an aerial position where an image indicating that private information is included is formed as a visible image. Accept as an information disclosure operation.
  • an operation in which the user touches the aerial position e1 where the visible image E2 is formed is input.
  • the display unit 471 displays an operation screen D3 including the user name “Taro Yamada”, which is private information that should have been formed at the aerial position e1.

Abstract

情報処理装置(1)は、ディスプレイ(471)と、可視像形成部(50)と、表示制御部(101)と、受付部(104)と、を備える。ディスプレイ(471)は、表示面を有し、当該表示面に画像を表示する。可視像形成部(50)は、空中に可視像を形成する。表示制御部(101)は、ディスプレイ(471)および可視像形成部(50)の動作を制御する。受付部(104)は、ユーザー操作を受け付ける。そして、表示制御部(101)は、受付部(104)が予め定められた第1のユーザー操作を受け付けた場合に、ディスプレイ(471)の表示面に表示される画像のうち、第1のユーザー操作で指定される範囲の画像を表す可視像を、可視像形成部(50)に形成させる。

Description

情報処理装置
 本発明は、情報処理装置に関し、特に、画像を可視像として空中に形成する技術に関する。
 今日では、空中に可視像を形成して必要な情報を表示させる情報処理装置が提案されている。例えば、下記の特許文献1や特許文献2には、不可視のレーザー光を間欠的に発光させ、当該レーザー光をレンズやミラー等により集光してプラズマを発生させ、当該プラズマから発光する可視光により文字、画像等の可視像を空中に形成する情報処理装置が示されている。また、下記の特許文献3には、自動車内の空間に可視像を形成することで必要な情報を表示させる情報処理装置が示されている。
 さらに、下記の特許文献4に示される情報処理装置は、物体又は表示装置から発せられた光を受け入れて反射させ、当該光学結像装置を挟んで当該物体又は表示装置とは対称となる位置に反射光を収束させることで、空中に物体像を結像させている。
特開2003-233339号公報 特開2007-206588号公報 特開2010-78623号公報 特開2013-127625号公報
 ここで、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機EL(OLED:Organic Light-Emitting Diode)ディスプレイといった一般的なディスプレイは、そのサイズに限りがあるため、当該ディスプレイに表示した画像に含まれる情報をディスプレイの遠くにいる人に伝達するのは困難である。特に、画像形成装置などの複数の設定項目を設定する必要がある情報処理装置においては、タッチパネル機能を有するディスプレイがその表示面を上方に向けて配置されるのが一般であるため、当該ディスプレイに表示した画像に含まれる情報を情報処理装置の目の前にいる人にしか伝達することができない。
 そこで、上記の特許文献1乃至特許文献4に記載の技術を用いて、それまで一般的なディスプレイに表示していた画像を、可視像として空中に形成させることが考えられる。画像を示す可視像を空中に形成するため、情報処理装置から離れた位置にいる人にも、画像に含まれる情報を伝達することが可能となる。
 しかしながら、可視像として空中に形成する画像は、一般に、一般的なディスプレイが表示する画像と比較して解像度が劣る。このため、それまで一般的なディスプレイに表示していた画像の全てを可視像として空中に形成させるのが好ましくない場合がある。
 本発明は、上記の事情に鑑みなされたものであり、一般的なディスプレイが表示した画像のうち、ユーザー所望の画像を可視像として空中に形成させることを可能にすることを目的とする。
 本発明の一局面にかかる情報処理装置は、ディスプレイと、可視像形成部と、表示制御部と、受付部と、を備える。前記ディスプレイは、表示面を有し、当該表示面に画像を表示する。前記可視像形成部は、空中に可視像を形成する。前記表示制御部は、前記ディスプレイおよび前記可視像形成部の動作を制御する。前記受付部は、ユーザー操作を受け付ける。そして、前記表示制御部は、前記受付部が予め定められた第1のユーザー操作を受け付けた場合に、前記ディスプレイの表示面に表示される画像のうち、当該第1のユーザー操作で指定される範囲の画像を表す可視像を、前記可視像形成部に形成させる。
 本発明によれば、一般的なディスプレイが表示した画像のうち、ユーザー所望の画像を可視像として空中に形成させることができる。
本発明の一実施形態にかかる画像形成装置の外観を示す斜視図である。 本発明の一実施形態にかかる画像形成装置の主要内部構成を示す機能ブロック図である。 本発明の一実施形態にかかる画像形成装置の表示部に表示される操作画面の一例を示す図である。 本発明の一実施形態にかかる画像形成装置の可視像形成部が形成する可視像の一例を示す図である。 本発明の一実施形態にかかる画像形成装置による操作画面の表示処理および可視像の形成処理における動作の流れを示すフローチャートである。 本発明の一実施形態にかかる画像形成装置の表示部に表示される操作画面の一例を示す図である。 本発明の一実施形態にかかる画像形成装置の表示部に表示される操作画面の一例を示す図である。 本発明の一実施形態にかかる画像形成装置の表示部を斜め上側から見た図である。 本発明の一実施形態にかかる画像形成装置の表示部を斜め上側から見た図である。 変形例にかかる画像形成装置の操作画面の表示処理および可視像の形成処理における動作の流れを示すフローチャートである。 変形例にかかる画像形成装置の表示部を斜め上側から見た図である。 変形例にかかる画像形成装置の表示部を斜め上側から見た図である。 変形例にかかる画像形成装置の表示部を斜め上側から見た図である。
 以下、本発明の一実施形態にかかる情報処理装置の一例として、画像形成装置の構成を説明する。図1は、画像形成装置の外観を示す斜視図である。図2は画像形成装置の主要内部構成を示す機能ブロック図である。
 画像形成装置1は、ファクシミリ通信機能、コピー機能、プリンター機能、およびスキャナー機能等の複数の機能を兼ね備えた複合機である。図1に示すように、画像形成装置1は、装置本体2と、装置本体2の上方に配置された画像読取部5と、画像読取部5と装置本体2との間に設けられた連結部3とから構成される。
 画像形成装置1の外郭を構成する筐体7には、画像形成装置1の様々な機能を実現するための複数の構成機器が収容されている。図2に示すように、筐体7には、画像読取部5、画像形成部12、給紙部30、画像メモリー32、ネットワークインターフェイス部91、HDD(Hard Disk Drive)92、および制御ユニット10等が収容されている。
 画像読取部5は、原稿搬送部6を有し、当該原稿搬送部6により搬送されてくる原稿又は不図示のコンタクトガラスに載置された原稿を光学的に読み取る。画像読取部5は、原稿を1枚ずつ読み取ることで、画像形成対象となる画像データを取得する。
 給紙部30は、不図示の給紙カセットと繰出ローラーとを備え、当該給紙カセットに収容された記録紙を、繰出ローラーにより画像形成部12に向けて一枚ずつ搬送する。
 画像形成部12は、不図示の感光体ドラム、帯電装置、露光装置、現像装置、および転写装置を備え、画像読取部5によって読み取られた画像や、ネットワーク接続されたパーソナルコンピューターから送られてくるプリント対象データを用いて、給紙部30から供給される記録紙に画像を形成(印刷)する。画像形成済みの記録紙は不図示の定着部による定着処理を受けた後、排出トレイ4に排出される。
 画像メモリー32は、画像読取部5による原稿読取で得られた画像データを一時的に記憶したり、画像形成部12による画像形成の対象となる画像データを一時的に保存する領域である。
 ネットワークインターフェイス部91は、LANボード等の通信モジュールから構成される。ネットワークインターフェイス部91は、接続されたLAN等を介してローカルエリア内のコンピューター200等と種々のデータの送受信を行う。
 HDD(ハードディスクドライブ)92は、画像読取部5による原稿読取で得られた画像データ等を記憶する大容量の記憶装置である。
 制御ユニット10は、CPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)等から構成される。制御ユニット10は、上記のROMまたはHDD92等に記憶された制御プログラムが上記のCPUに実行されることにより、制御部100、表示制御部101、および受付部104として機能する。なお、制御ユニット10の上記の各構成は、前述の制御プログラムに基づく動作によらず、それぞれハード回路により構成されてもよい。
 制御部100は、画像読取部5、画像形成部12、給紙部30、画像メモリー32、ネットワークインターフェイス部91、およびHDD92等と接続されており、接続されている上記各機構の動作制御や、各機構との間での信号又はデータの送受信を行う機能を有する。
 表示制御部101は、後述する表示部471および可視像形成部50の動作を制御する機能を有する。また、表示制御部101は、可視像形成部50の動作を制御する構成として、形成位置算出部102およびレーザー光源制御部103を有する。当該形成位置算出部102およびレーザー光源制御部103の詳細な内容は後述する。
 受付部104は、後述する操作部47により入力されたユーザー操作や、後述する操作検知部54が検知したユーザー操作を受け付ける機能を有する。
 画像形成装置1は、更に、画像形成装置1の外郭を構成する筐体7の前面に、表示部471(ディスプレイ)および物理キー472からなる操作部47を備える。
 表示部471は、液晶ディスプレイや有機ELディスプレイで構成され、その表示面を上方に向けて配置されている。表示部471は、表示制御部101による制御に基づき、表示面に画像形成や原稿読取等に関する操作画面を表示する。
 物理キー472は、例えば、操作画面を構成するGUIのフォーカスを移動させる矢印キー、操作画面を構成するGUIに対して確定操作を行う決定キー、数値キー等である。物理キー472は、表示部471の表示面に表示される操作画面に対する操作をユーザーから受け付ける操作部として機能する。
 また、表示部471の表示面の上面には、不図示のタッチパネルが配置されている。当該タッチパネルは、所謂抵抗膜方式や静電容量方式等のタッチパネルである。タッチパネルは、表示部471の表示面上におけるユーザーによる接触をその接触位置と共に検知する。タッチパネルは、ユーザーによる接触を検知すると、その接触点の座標位置を示す検知信号を受付部104等に出力する。なお、タッチパネルには、表示面への直接の接触がなくても、ユーザーの指等が表示面に対して一定距離まで接近した場合に当該指等を検出するタッチパネルも含まれる。このため、本実施形態でいう「接触」には、表示面への接触がなくても指等が上記一定距離まで接近したことがタッチパネル機能により検出される状態も、実質的に接触したとして含まれるものとする。
 画像形成装置1の外郭を構成する筐体7の前面には、更に、可視像形成部50が配置されている。
 可視像形成部50は、空中に可視像を形成する。(1)可視像形成部50は、不可視のレーザー光を間欠的に発光させ、当該レーザー光をレンズやミラー等により集光してプラズマを発生させ、当該プラズマから発光する可視光により文字、画像等の可視像を空中に形成する(その可視像形成方法は、例えば特開2003-233339号公報および特開2007-206588号公報に示されている)。或いは、(2)可視像形成部50は、光学結像装置を有し、表示装置から発せられた光を受け入れて反射させ、当該光学結像装置を挟んで当該表示装置とは対称となる位置に反射光を収束させることで空中に物体像を結像させる構成である(その可視像形成方法は、例えば特開2013-127625号公報に示されている)。以下、本実施形態では、可視像形成部50が上記(1)の構成を採るものとして説明する。
 可視像形成部50は、レーザー光源部51と、操作検知部54とを備える。レーザー光源部51は、レーザービームを発光するレーザー光源(不図示)と、レーザー光源からのレーザー光を集光してプラズマを発生させるレンズやミラー等(不図示)と、レーザー光源および当該レンズやミラー等を走査させる走査機構(不図示)とを有する。レーザー光源部51は、表示制御部101による制御の下で、不可視のレーザービームを出射する。そして、レーザー光源部51は、当該レーザー光をレンズやミラー等により集光することでプラズマを発生させ、当該プラズマから発光する可視光により文字や画像等を含む操作画面を可視像として空中に形成する。
 表示制御部101の形成位置算出部102は、操作画面を示す可視像が予め定められた可視像形成位置(予め定めた三次元空間座標系上における位置座標)で形成されるように、レーザー光源部51によるレーザー光出射方向および出射位置を算出する。すなわち、形成位置算出部102は、どのような可視像形成位置でレーザー光源部51によりプラズマを発生させるかを算出する。
 また、表示制御部101のレーザー光源制御部103は、形成位置算出部102により算出されたレーザー光出射方向および出射位置に存在する気体をプラズマ発光させるためにレーザー光源部51を制御する。可視像は、2つのレーザー光の交点に発生する輝点により生じるため、レーザー光源制御部103は、例えば、当該輝点の位置が画像を構成する各画素に対応する位置となるように、当該2つのレーザー光を発光させるタイミングを調節しつつ、レーザー光源部51を駆動制御する。
 図3Aは、表示部471に表示される操作画面の一例を示す図であり、図3Bは、可視像形成部50が形成する可視像の一例を示す図である。図3Aに示す例では、表示部471に印刷ジョブのログ情報を示す操作画面D1が表示されている。
 詳細は後述するが、タッチパネル機能により操作画面D1に対して予め定められた可視像化指示操作(第1のユーザー操作)が入力され、受付部104が当該可視像化指示操作を受け付けた場合、表示制御部101は、可視像形成部50に、表示部471に表示された操作画面D1のうち、当該可視像化指示操作で指定される範囲の画像を表す可視像E1を形成させる(図3B参照)。また、表示制御部101は、表示部471に、操作画面D1から可視像化指示操作で指定される範囲の画像を除いた操作画面D2を表示させる。これにより、ユーザーには、表示部471に表示された操作画面の一部が、あたかも表示部471から立ち上がったように視認される。
 図1および図2に戻って、操作検知部54は、可視像形成部50により可視像が形成されたときに、当該可視像の表示位置にユーザーの手を位置させた状態である擬似的タッチ操作(ユーザー操作)を検知する機能を有する。操作検知部54は、当該擬似的タッチ操作を検知した旨と、当該擬似的タッチ操作の位置情報とを受付部104に出力する。
 例えば、操作検知部54は、被写体からの光を結像する撮像レンズ(不図示)、当該撮像レンズよって結像された被写体像を光電変換する撮像素子(不図示)、および撮像素子を駆動する回路(不図示)等を有する撮像部を含む。操作検知部54は、レーザー光源部51に近接する位置に配置され、レーザー光源部51から出射されたレーザービームにより可視像が形成される予め定められた形成位置から三次元空間の一定範囲内を撮像する。
 操作検知部54は、撮像した画像に基づいてユーザーの手等の画像及び当該画像の空間位置を特定する。そして、操作検知部54は、ユーザーの手等の画像の空間位置が、上記予め定められた形成位置に可視像として形成されている操作画面から一定範囲内(例えば、xyz方向の少なくともいずれかにおいて10mm以内)の位置である場合には、当該可視像としての操作画面に対する擬似的タッチ操作として検知し、当該擬似的タッチ操作が行われた位置を示す位置情報を取得する。
 例えば、操作検知部54は、撮像した画像に対して2値化処理や濃淡情報によるパターンマッチング等の画像処理を行って、ユーザーの手等の画像を判別する。ここでは、操作検知部54は、撮像した画像と、操作検知部54が予め記憶している基本画像とのパターンマッチングにより、撮像した画像にユーザーの手の画像が含まれるか否かを判別する。
 操作検知部54は、当該手の画像が判別されると、当該手の画像の位置を予め定めた三次元空間座標における位置座標として検出する。そして、操作検知部54は、当該手の画像の位置と、可視像としての操作画面が形成されている予め定められた空間位置とが重なる部分が存在するか否かを判定する。操作検知部54は、当該重なる部分がある場合には、操作画面に対する擬似的タッチ操作ありと検知する。
 続いて、画像形成装置1の具体的な動作の流れについて説明する。図4は、画像形成装置1の操作画面の表示処理および可視像の形成処理における動作の流れを示すフローチャートである。
 画像形成装置1の電源が投入されると、表示制御部101は、表示部471に操作画面を表示させる(ステップS10)。そして、受付部104が可視像化指示操作を受け付けた場合(ステップS11においてYES)、表示制御部101は、当該可視像化指示操作で指定される範囲の画像を表す可視像を可視像形成部50に形成させる(ステップS12)。
 図5Aおよび図5Bは、表示部471に表示される操作画面の一例を示す図である。図5Bに示す例では、表示部471に表示される操作画面D1に対して、ユーザーがタッチパネル機能を用いた上方向のスワイプ操作を入力している。受付部104は、当該上方向のスワイプ操作を可視像化指示操作として受け付ける。また、受付部104は、当該上方向のスワイプ操作の始点位置d1から上方向側に位置する範囲Aに表示される画像を、可視像化指示操作により指定される範囲の画像として受け付ける。
 なお上記では、受付部104が上方向のスワイプ操作を可視像化指示操作として受け付ける場合を示したが、本発明は必ずしもこの場合に限定されない。受付部104は、タッチパネル機能を用いて入力されたタップ操作等の他のジェスチャ操作を可視像化指示操作として受け付けてもよい。また、受付部104は、物理キー472を用いて入力された操作を可視像化指示操作として受け付けてもよい。
 また上記では、受付部104が可視像化指示操作の始点位置から上方向側に位置する範囲に表示される画像を可視像化指示操作により指定される範囲の画像として受け付ける場合を説明したが、本発明は必ずしもこの場合に限定されない。受付部104は、可視像化指示操作の始点位置から予め定められた方向(例えば下方向)側に表示された画像を可視像化指示操作により指定される範囲の画像として受け付けてもよい。
 図6Aおよび図6Bは、表示部471を斜め上側から見た図である。受付部104が図5Bに示す可視像化指示操作を受け付けた場合、表示制御部101は、可視像形成部50に、表示部471に表示された操作画面D1のうち範囲Aに表示される画像を表す可視像E1を形成させる。この際、表示制御部101は、可視像E1の下端部が表示部471における可視像化指示操作の始点位置、または当該始点位置の上方位置に位置するように、可視像形成部50に可視像E1を形成させる。また、表示制御部101は、表示部471に、操作画面D1から可視像化指示操作で指定される範囲の画像を除いた操作画面D2を表示させる。これにより、図6Aに示す状態から図6Bに示す状態に遷移する。その結果、ユーザーには、表示部471に表示された操作画面の一部があたかも表示部471から立ち上がったように視認される。ユーザーは、表示部471に表示された操作画面のうち所望の範囲の画像を可視像として表示部471の上方の空間に表示することができる。
 ここで、表示部471のサイズには限りがあるため、表示部471に表示した操作画面に含まれる情報を表示部471の遠くにいる人に伝達するのは困難である。特に、複数の設定項目を設定する必要がある画像形成装置1においては、図1に示すようにタッチパネル機能を有する表示部471がその表示面を上方に向けて配置されるのが一般であるため、表示部471に表示した操作画面に含まれる情報を画像形成装置1の目の前にいる人にしか伝達することができない。
 この点、画像形成装置1では、表示部471が表示する操作画面を可視像として空中に形成させることができるため、画像形成装置1から離れた位置にいる人にも、操作画面に含まれる情報を伝達することが可能となる。
 また、可視像として空中に形成する画像は、表示部471が表示する画像と比較して解像度が劣るため、表示部471が表示する操作画面の全てを可視像として空中に形成させるのが好ましくない場合がある。この点、画像形成装置1では、表示部471が表示する操作画面のうち、所望の範囲(例えば、画像形成装置1から離れた位置にいる人に見せたい範囲)だけを可視像として空中に形成することができる。
 図4に戻って、ステップS12の処理後、受付部104が予め定められた可視像化キャンセル操作を受け付けた場合(ステップS13においてYES)、表示制御部101は、画像を可視像化する処理を止め(ステップS14)、ステップS10の処理に戻る。受付部104は、例えば、タッチパネル機能により入力された下方向のスワイプ操作を可視像化キャンセル操作として受け付ける。
 なお、本発明は、上記の実施の形態の構成に限られず種々の変形が可能である。
 図7は、変形例にかかる画像形成装置1の操作画面の表示処理および可視像の形成処理における動作の流れを示すフローチャートである。なお、図4に示す処理と同内容の処理については同符号を付して説明を略する。
 ステップS11の処理後、表示制御部101は、可視像化の対象とされる画像にプライベート情報が含まれているか否かを判定する(ステップS20)。ここで、プライベート情報とは、氏名、年齢、性別等の個人情報である。HDD92には、表示対象の操作画面に含まれる各情報がプライベート情報であるか否かが予め記憶されている。表示制御部101は、HDD92に記憶されている当該情報を参照して、可視像化の対象とされる画像にプライベート情報が含まれているか否かを判定する。図5Aに示す例では、「鈴木一郎」、「山田太郎」、「前田花子」といったユーザー名がプライベート情報に該当する。
 可視像化の対象とされる画像にプライベート情報が含まれている場合(ステップS20においてYES)、表示制御部101は、プライベート情報を示す範囲の画像をプライベート情報が含まれている旨を示す画像に置き換える(ステップS21)。当該ステップS21の処理により、可視像化の対象とされる画像からプライベート情報を示す範囲の画像が除かれる。なお、表示制御部101は、プライベート情報を示す範囲の画像をブランクの画像に置き換えてもよい。
 ステップS21の処理後、ステップS21の処理で生成された画像を表す可視像を可視像形成部50に形成させる(ステップS12)。受付部104が図5Bに示す可視像化指示操作を受け付けた場合、可視像形成部50は、プライベート情報を示す範囲の画像である「鈴木一郎」、「山田太郎」、「前田花子」といったユーザー名を、プライベート情報が含まれている旨を示す画像である「Private情報」の記載に置き換えた画像を示す可視像E2を形成する(図8参照)。
 そして、ステップS12の処理後、受付部104が予め定められたプライベート情報開示操作を受け付けた場合(ステップS22においてYES)、表示制御部101は、プライベート情報を示す範囲の画像を表示部471に表示させる(ステップS23)。受付部104は、例えば、操作検知部54により検知されたユーザー操作であって、プライベート情報が含まれている旨を示す画像が可視像として形成された空中位置をユーザーが触れる操作を、プライベート情報開示操作として受け付ける。
 図9Aに示す例では、可視像E2が形成された空中位置e1をユーザーが触れる操作が入力されている。この場合、図9Bに示すように、表示部471には、空中位置e1に形成されるべきであったプライベート情報である「山田太郎」のユーザー名を含む操作画面D3が表示される。
 不特定多数のユーザーが入室可能なオフィスなどに画像形成装置1を設置した場合、氏名、年齢、性別等のプライベート情報が可視像として空中に形成されると、画像形成装置1から離れた位置にいる人にプライベート情報が見えるおそれがあり好ましくない。この点、変形例にかかる画像形成装置1では、可視像化指示操作で指定される範囲に氏名、年齢、性別等のプライベート情報が含まれる場合であっても、当該プライベート情報が可視像として空中に形成される事態を避けることができる。

Claims (7)

  1.  表示面を有し、当該表示面に画像を表示するディスプレイと、
     空中に可視像を形成する可視像形成部と、
     前記ディスプレイおよび前記可視像形成部の動作を制御する表示制御部と、
     ユーザー操作を受け付ける受付部と、を備え、
     前記表示制御部は、前記受付部が予め定められた第1のユーザー操作を受け付けた場合に、前記ディスプレイの表示面に表示された画像のうち、当該第1のユーザー操作で指定される範囲の画像を表す可視像を、前記可視像形成部に形成させる、情報処理装置。
  2.  前記ディスプレイは、タッチパネル機能を有し、
     前記受付部は、前記タッチパネル機能により入力された予め定められたジェスチャ操作を前記第1のユーザー操作として受け付け、
     前記表示制御部は、前記ディスプレイの表示面に表示される画像のうち、前記ジェスチャ操作における始点位置から予め定められた方向側に表示された画像を、前記第1のユーザー操作で指定される範囲の画像とする、請求項1に記載の情報処理装置。
  3.  前記ディスプレイは、前記表示面を上方に向けて配置され、
     前記表示制御部は、前記可視像の下端部が、前記表示面における前記始点位置、または前記始点位置の上方位置に位置するように、前記可視像形成部に前記可視像を形成させる、請求項2に記載の情報処理装置。
  4.  前記表示制御部は、前記受付部が予め定められた第1のユーザー操作を受け付けた場合に、前記ディスプレイの表示面に表示する画像から前記第1のユーザー操作で指定される範囲の画像を除いた画像を前記ディスプレイに表示する、請求項1に記載の情報処理装置。
  5.  前記表示制御部は、可視像化の対象とされる画像にプライベート情報が含まれているか否かを判定し、プライベート情報が含まれている場合に、前記可視像化の対象とされる画像から当該プライベート情報を示す範囲の画像を除いた画像を表す可視像を、前記可視像形成部に形成させる、請求項1に記載の情報処理装置。
  6.  前記可視像形成部により可視像として示される操作画面に対するユーザー操作を検知する操作検知部を更に備え、
     前記表示制御部は、前記操作検知部により検知されたユーザー操作であって、予め定められた第2のユーザー操作を前記受付部が受け付けた場合に、前記プライベート情報を示す範囲の画像を前記ディスプレイの表示面に表示させる、請求項5に記載の情報処理装置。
  7.  前記表示制御部は、前記プライベート情報を示す範囲の画像をプライベート情報が含まれている旨を示す画像に置き換えることで、前記可視像化の対象とされる画像から前記プライベート情報を示す範囲の画像を除き、
     前記受付部は、前記可視像形成部により前記プライベート情報が含まれている旨を示す画像が可視像として形成された空中位置をユーザーが触れる操作を前記第2のユーザー操作として受け付ける、請求項6に記載の情報処理装置。
PCT/JP2016/054001 2015-03-25 2016-02-10 情報処理装置 WO2016152300A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015063086 2015-03-25
JP2015-063086 2015-03-25

Publications (1)

Publication Number Publication Date
WO2016152300A1 true WO2016152300A1 (ja) 2016-09-29

Family

ID=56977127

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/054001 WO2016152300A1 (ja) 2015-03-25 2016-02-10 情報処理装置

Country Status (1)

Country Link
WO (1) WO2016152300A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018084792A (ja) * 2017-06-22 2018-05-31 富士ゼロックス株式会社 画像処理装置及びプログラム
JP2020088592A (ja) * 2018-11-26 2020-06-04 株式会社ハニカムラボ 表示装置、表示処理装置、および表示処理プログラム
JP7463077B2 (ja) 2018-12-06 2024-04-08 キヤノン株式会社 表示装置、表示方法、プログラム、記録媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007115228A (ja) * 2005-09-20 2007-05-10 Iti:Kk マスキングプログラムおよびマスキングシステム
JP2008089985A (ja) * 2006-10-02 2008-04-17 Pioneer Electronic Corp 画像表示装置
JP2013174665A (ja) * 2012-02-23 2013-09-05 Toshiba Corp 情報処理装置、画質補正の制御方法およびプログラム
JP2013186827A (ja) * 2012-03-09 2013-09-19 Konica Minolta Inc 操作装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007115228A (ja) * 2005-09-20 2007-05-10 Iti:Kk マスキングプログラムおよびマスキングシステム
JP2008089985A (ja) * 2006-10-02 2008-04-17 Pioneer Electronic Corp 画像表示装置
JP2013174665A (ja) * 2012-02-23 2013-09-05 Toshiba Corp 情報処理装置、画質補正の制御方法およびプログラム
JP2013186827A (ja) * 2012-03-09 2013-09-19 Konica Minolta Inc 操作装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018084792A (ja) * 2017-06-22 2018-05-31 富士ゼロックス株式会社 画像処理装置及びプログラム
JP2020088592A (ja) * 2018-11-26 2020-06-04 株式会社ハニカムラボ 表示装置、表示処理装置、および表示処理プログラム
JP7463077B2 (ja) 2018-12-06 2024-04-08 キヤノン株式会社 表示装置、表示方法、プログラム、記録媒体

Similar Documents

Publication Publication Date Title
JP5696908B2 (ja) 操作表示システム
US9024897B2 (en) Instruction input device and recording medium
JP6281520B2 (ja) 画像形成装置
JP5574854B2 (ja) 情報処理システム、情報処理装置、情報処理方法及びプログラム
WO2016152300A1 (ja) 情報処理装置
US20180284672A1 (en) Image forming apparatus, image forming system, storage medium and control method
US20190132476A1 (en) Information processing device and information processing system
US10692399B2 (en) Braille tactile sensation presenting device and image forming apparatus
JP2006205671A (ja) 情報処理装置及びその制御方法
JP6780667B2 (ja) 管理システム
JP6350360B2 (ja) 可視像形成装置及び画像形成装置
JP6575442B2 (ja) 操作パネル及びそれを備えた画像形成装置
JP6394800B2 (ja) 画像形成装置
JP5663536B2 (ja) データ送信装置およびそれを備えた画像形成装置
JP6365767B2 (ja) 可視像形成装置及び画像形成装置
JP6171510B2 (ja) 画像形成装置、操作案内方法、プログラム
JP6299642B2 (ja) 可視像形成装置及び画像形成装置
JP6299632B2 (ja) 可視像形成装置を備える画像形成装置
US10545445B2 (en) Image forming apparatus that forms image on recording sheet, and image forming system
US11330116B2 (en) Image forming device and proposal processing prediction method for image forming device
US10891097B2 (en) Receiving device and image forming apparatus
JP2016162111A (ja) 可視像形成装置及び画像形成装置
JP2018148269A (ja) 画像形成装置及び画像形成方法
JP6350386B2 (ja) 可視像形成装置及び画像形成装置
JP2015130710A (ja) スキャナー装置及び画像形成装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16768203

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16768203

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP