WO2013103103A1 - 電子機器、及び音楽コード出力方法 - Google Patents

電子機器、及び音楽コード出力方法 Download PDF

Info

Publication number
WO2013103103A1
WO2013103103A1 PCT/JP2012/083323 JP2012083323W WO2013103103A1 WO 2013103103 A1 WO2013103103 A1 WO 2013103103A1 JP 2012083323 W JP2012083323 W JP 2012083323W WO 2013103103 A1 WO2013103103 A1 WO 2013103103A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
music code
contact
unit
arrangement
Prior art date
Application number
PCT/JP2012/083323
Other languages
English (en)
French (fr)
Inventor
知巳 高階
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Publication of WO2013103103A1 publication Critical patent/WO2013103103A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/005Device type or category
    • G10H2230/015PDA [personal digital assistant] or palmtop computing devices used for musical purposes, e.g. portable music players, tablet computers, e-readers or smart phones in which mobile telephony functions need not be used

Definitions

  • the present invention relates to an electronic device and a music code output method.
  • This application claims priority based on Japanese Patent Application No. 2012-000180 filed on January 4, 2012, the contents of which are incorporated herein by reference.
  • the electronic device disclosed in Patent Document 1 As an electronic device such as a portable information terminal, the electronic device disclosed in Patent Document 1 is known.
  • the electronic device disclosed in Patent Document 1 can display various information on a screen.
  • Patent Document 1 does not mention the arrangement of the finger of the user holding the electronic device. That is, the electronic device disclosed in Patent Literature 1 has a problem that it cannot execute an operation according to the arrangement of the finger of the user holding the device.
  • An object of an aspect of the present invention is to provide an electronic device and a rhythm output method that can execute an operation according to the arrangement of a finger of a user holding the device.
  • the presence / absence of contact with the device itself is determined, and the detection unit that detects the contact position that is determined to be in contact with the predetermined arrangement of the contact position is associated with the music code. And storing a music code associated with the predetermined arrangement that is most similar to the arrangement of the contact position detected by the detection unit from the music code stored in advance by the storage unit
  • An electronic device is characterized by outputting a music code.
  • Another aspect of the present invention is a music code output method in an electronic device, wherein the presence or absence of contact on the side surface of the device itself is determined, and a contact position that is determined to be in contact is detected. Selecting a music code associated with the predetermined arrangement most similar to the detected arrangement of the contact position from music codes stored in advance in association with the predetermined arrangement of the contact position And a step of outputting the selected music code in response to an output instruction.
  • the electronic device can execute an operation according to the arrangement of the finger of the user holding the device.
  • FIG. 1st Embodiment of this invention It is a block diagram which shows the structural example of the electronic device in 1st Embodiment of this invention. It is a perspective view which shows the external appearance of the electronic device in 1st Embodiment of this invention. It is a figure which shows the cross-sectional structure of the electronic device of the state which has not moved the movable part in 1st Embodiment of this invention. It is a figure which shows the cross-sectional structure of the electronic device of the state which the movable part moved in 1st Embodiment of this invention. It is a figure which shows the example of an external appearance of the electronic device of the state which the finger
  • FIG. 1 is a block diagram illustrating a configuration example of an electronic device.
  • the electronic device 100 detects the arrangement (interval) of each finger of the user that touches the side surface of the housing, and outputs various music codes determined by the detected arrangement in response to an output instruction.
  • the user can change the music chord output by the electronic device 100 by changing the arrangement of the finger in contact with the side surface of the casing of the electronic device 100.
  • the electronic device 100 includes an operation unit 115, a storage unit 112, a control unit 111, and an output unit 110.
  • the output unit 110 includes a speaker 114, a display unit 10, and a vibration unit 16.
  • the operation unit 115 receives an operation input by the user.
  • FIG. 2 is a perspective view showing the external appearance of the electronic device.
  • the operation unit 115 (see FIG. 1) includes detection units 22A to 22D on side surfaces Fa to Fd of the casing surrounding the display surface of the display unit 10.
  • detection unit 22 items common to the detection units 22A to 22D are denoted by “detection unit 22” by omitting the symbols A to D.
  • the detection part 22 determines the presence or absence of a contact, and detects the contact position which is the position determined to have a contact.
  • the description will be continued assuming that the contact position is the position of the user's finger in contact with the side surfaces Fa to Fd of the housing.
  • the storage unit 112 stores in advance a predetermined arrangement of contact positions in association with music codes.
  • the storage unit 112 stores sound data.
  • the sound data may be tone color data of a musical instrument (piano, guitar, etc.).
  • the storage unit 112 may store image data to be displayed on the display unit 10.
  • the storage unit 112 may store vibration data indicating the vibration pattern of the vibration unit 16.
  • the control unit 111 acquires sound data from the storage unit 112. Further, the control unit 111 acquires information indicating the contact position from the detection unit 22. In addition, the control unit 111 selects a music code associated with a predetermined arrangement that is most similar to the arrangement of the contact positions from music codes stored in the storage unit 112 in advance. Here, the control unit 111 may select a music code by pattern matching of each arrangement.
  • control unit 111 When the control unit 111 receives an output instruction signal from the touch panel (described later), the control unit 111 causes the speaker 114 to output a music code with the tone color indicated by the sound data acquired from the storage unit 112.
  • the control unit 111 may vibrate the vibration unit 16 with a predetermined vibration pattern.
  • the control unit 111 may cause the display unit 10 to display a predetermined image corresponding to the music code to be output.
  • Speaker 114 outputs sound such as music, operation sound, notification sound, or sound in accordance with control by control unit 111.
  • the display unit 10 displays an image in accordance with control by the control unit 111.
  • the display unit 10 is, for example, a liquid crystal display panel or an organic EL (Electro-Luminescence) panel. Further, the above-described touch panel (not shown) is provided on the display surface of the display unit 10.
  • a signal corresponding to the operation input received by the touch panel is input to the control unit 111.
  • the signal corresponding to the operation input is, for example, an output instruction signal for the user to instruct to output a music code.
  • the vibration part 16 has a fixed part, a movable part, and a drive part.
  • FIG. 3 shows a cross-sectional configuration of the electronic device in a state where the movable part has not moved.
  • FIG. 4 shows a cross-sectional configuration of the electronic apparatus in a state where the movable part has moved.
  • an XYZ orthogonal coordinate system is defined in FIGS. Specifically, the stacking direction of each component of the electronic device 100 is defined as the Z direction.
  • a plane orthogonal to the Z direction is defined as an XY plane, and directions orthogonal to the XY plane are defined as an X direction and a Y direction, respectively.
  • the vibration unit 16 generates vibration according to control by the control unit 111.
  • the fixed part 16a accommodates the movable part 16b and the drive part.
  • the fixed portion 16 a is formed in a cylindrical shape, and is disposed in the opening of the bottom cover 15.
  • the movable part 16b is provided so as to be movable in the stacking direction (Z direction) of each component of the electronic device 100.
  • the drive unit is connected to the movable unit 16b and reciprocates the movable unit 16b in the Z direction.
  • the drive unit is, for example, a voice coil motor.
  • the electronic device 100 includes a first housing portion 101 as its housing.
  • the first housing part 101 includes a second housing part 102 and a base part 11.
  • the second housing portion 102 includes a cover member 26.
  • the cover member 26 is provided so as to cover the + Z side end of the electronic device 100 in order to accommodate the electronic circuit.
  • the cover member 26 includes a detection unit 22.
  • the cover member 26 is connected to the movable portion 16b. Thereby, the cover member 26 can move in the Z direction integrally with the movable portion 16b. Further, when the vibration of the movable portion 16b is transmitted to the cover member 26, the cover member 26 vibrates in the Z direction.
  • the cover member 26 and the detection unit 22 move in the + Z direction as the movable unit 16b moves (see FIG. 4).
  • the space between the first housing portion 101 and the second housing portion 102 expands, and a relative movement is executed between the first housing portion 101 and the second housing portion 102.
  • the cover member 26 moves in the ⁇ Z direction as the movable portion 16b moves. Thereby, relative movement between the first housing part 101 and the second housing part 102 is executed. Further, when the movable portion 16b reciprocates in the Z direction, the cover member 26 and the detection portion 22 vibrate.
  • FIG. 5 shows an external appearance example of an electronic device in a state where a finger is in contact with the detection unit.
  • the control unit 111 (see FIG. 1) outputs various rhythms to the output unit 110 (see FIG. 1) based on the arrangement (interval) of each finger of the user in contact with the side surface of the housing surrounding the display surface of the display unit 10. (See).
  • FIG. 6 is a diagram showing a position where the finger is in contact.
  • FIG. 6 shows, as an example, contact positions f1 to f4 of the user's finger in the state shown in FIG. That is, the contact position f1 is a position where the user's thumb is in contact.
  • the contact position f2 is a position where the user's index finger has come into contact.
  • the contact position f3 is a position where the middle finger of the user has contacted.
  • the contact position f4 is a position where the user's ring finger is in contact.
  • the point P is at a position where the detection unit 22C and the detection unit 22D are in contact with each other.
  • control unit 111 may identify the type of finger (for example, thumb or index finger) that is in contact with the contact position. For example, the control unit 111 may identify the contact position having the largest contact area as the position where the user's thumb is in contact.
  • type of finger for example, thumb or index finger
  • FIG. 7 is a diagram for explaining a method of determining a music code to be output.
  • FIG. 7 as an example, there is a correspondence relationship between the contact positions f1, f2, f3b, and f4b that constitute an arrangement previously associated with the music code C6 and the actually detected contact positions f1, f2, f3a, and f4a. It is shown.
  • the point P is associated between the pitch name B (si) and the pitch name C (do) in the scale.
  • the arrangement associated with the music code in advance will be described as an arrangement of fingers in a keyboard instrument (piano, etc.) as an example.
  • the arrangement associated with the music code in advance is not limited to the arrangement of the fingers on the keyboard instrument, and may be the arrangement of the fingers on a stringed instrument (such as a guitar).
  • the control unit 111 determines the arrangement of the contact position. For example, the control unit 111 determines the distance from the point P to the contact position or the interval between the contact positions in the order of the detection unit 22C, the detection unit 22B, the detection unit 22A, and the detection unit 22D (clockwise in FIG. 6). To do.
  • control unit 111 uses the pattern matching between the detected contact position (in FIG. 7, the contact positions f1, f2, f3a, and f4a) and the arrangement previously associated with the music chord (see FIG. 7 detects a music code associated with the contact positions f1, f2, f3b and f4b).
  • the control unit 111 detects the music code associated with the most similar arrangement as follows.
  • F1 (i), F2 (i), F3 (i), and F4 (i) are contact positions corresponding to any of n types (n is an integer of 2 or more) of music codes. I is an integer of 1 to n.
  • i that minimizes the evaluation function D (i) is a number “i *” that indicates a music code corresponding to these contact positions.
  • control unit 111 may perform offset correction when the evaluation function D (I *) is equal to or greater than a predetermined specified value. In other words, the control unit 111 virtually corrects the detected arrangement of the contact position so that the arrangement is previously associated with the music code, and then calculates the corrected arrangement of the contact position.
  • the music code C6 is detected as a music code associated in advance with an arrangement most similar to the detected arrangement of the contact position.
  • the control unit 111 sets the contact positions f3a and f4a that are shifted with respect to the contact positions f3b and f4b constituting the arrangement (sound names C, E, G, and A) associated with the detected music chord C6 in advance. Then, the position is virtually corrected so as to be the positions of the contact positions f3b and f4b.
  • FIG. 8 is a flowchart showing an operation procedure for outputting a music code.
  • the control unit 111 acquires sound data from the storage unit 112 (step S1).
  • the detection part 22 determines the presence or absence of the contact with a user's finger
  • the control unit 111 selects a music code associated with a predetermined arrangement that is most similar to the arrangement of the contact positions from the music codes stored in advance in the storage unit 112 (step S3).
  • the control unit 111 determines whether or not an output instruction signal for instructing the user to output a music code is received from a touch panel (not shown) (step S4).
  • the control unit 111 causes the speaker 114 to output a music code with the timbre indicated by the sound data acquired from the storage unit 112.
  • the control unit 111 returns the process to step S2.
  • the electronic device 100 determines the presence / absence of contact on the side surface of its own device (main body, casing), and detects the contact position (see FIG. 6) that is the position determined to be contacted.
  • 115 detection units 22 a storage unit 112 that stores a predetermined arrangement of the contact positions in advance in association with a music code, and the predetermined unit that is most similar to the arrangement of the contact positions detected by the detection unit 22.
  • the control unit 111 that selects a music code (see FIG. 7) associated with the arranged layout from the music codes stored in advance by the storage unit 112, and outputs the selected music code in response to an output instruction.
  • An output unit 110 (speaker 114, display unit 10, vibration unit 16).
  • the control unit 111 selects a music code associated with the predetermined arrangement that is most similar to the detected arrangement of the contact position.
  • casing) can be performed.
  • the electronic device 100 can detect the music code (for example, the music code C6) intended by the user by the arrangement of the finger. ) Can be output.
  • the second embodiment is different from the first embodiment in that the tone of the music code is changed according to how the user holds the electronic device (for example, horizontally held, vertically held, or diagonally held). Only the differences from the first embodiment will be described below.
  • FIG. 9 is a block diagram showing a configuration example of the electronic device.
  • the electronic device 100 includes a sensor 117 (posture sensor) that detects the posture of the device itself (main body, casing).
  • the sensor 117 detects the attitude of the electronic device 100, that is, how the user holds the electronic device 100.
  • the control unit 111 determines the timbre of the music code output from the output unit 110 according to the attitude detected by the sensor 117.
  • the detection unit 22 determines how the user holds the housing (for example, based on the type of finger in contact with the contact positions f1 to f4 (see FIG. 6) and the positional relationship between the contact positions f1 to f4 (for example, , Orientation, difference between left and right hands). For example, the detection unit 22 determines whether the order of the contact positions f1 to f4 is clockwise with respect to the housing of the electronic device 100 (see FIG. 6). Detects which of the left and right hands is.
  • the electronic device 100 includes the sensor 117 (posture sensor) that detects the posture of the device itself (main body, casing), and the output unit 110 has a timbre corresponding to the posture detected by the sensor 117. , Outputting the selected music code.
  • the output unit 110 outputs the selected music code with a timbre corresponding to the posture detected by the sensor 117.
  • the electronic device 100 can change the tone of the music code to be output according to how the user holds the electronic device 100 (housing) (for example, the direction and the difference between the left and right hands).
  • the third embodiment is different from the first and second embodiments in that an image sensor is used in combination, and the timbre and pitch are changed according to brightness and color (average value or the like). Only the differences from the first and second embodiments will be described below.
  • FIG. 10 shows a block diagram of a configuration example of the electronic device.
  • the electronic device 100 further includes an imaging unit 116 (image sensor).
  • the imaging unit 116 outputs image data corresponding to the captured image to the control unit 111.
  • the control unit 111 identifies at least one of the average color, texture, motion, and brightness of the captured image based on the image data.
  • the control unit 111 determines the volume and tone color of the music code output by the output unit 110 according to at least one of the average color, texture, motion, and brightness of the captured image.
  • the electronic device 100 includes the imaging unit 116 (image sensor) that captures an image, and the output unit 110 outputs the selected music code with a tone corresponding to the image captured by the imaging unit 116.
  • the output unit 110 may change the volume and tone color according to the brightness, texture, motion, or average color of the captured image.
  • the output unit 110 outputs a music code according to the image captured by the imaging unit 116.
  • the electronic device 100 can change the volume and tone color of the music code according to the brightness and average color of the captured image.
  • the fourth embodiment is different from the first to third embodiments in that sound sampled using a microphone is used as a sound source. Only differences from the first to third embodiments will be described below.
  • FIG. 11 is a block diagram illustrating a configuration example of an electronic device.
  • Electronic device 100 further includes a microphone 113.
  • the microphone 113 collects (samples) sound from around the electronic apparatus 100 and outputs sound data corresponding to the collected sound to the control unit 111.
  • the control unit 111 causes the storage unit 112 to store sound data corresponding to the sound collected by the microphone 113.
  • the output unit 110 acquires sound data corresponding to the collected sound from the storage unit 112, and outputs a music code from the speaker 114 as sound based on the sound data.
  • the electronic device 100 includes the microphone 113 that collects sound, and the output unit 110 outputs the selected music code with the sound collected by the microphone 113.
  • the output unit 110 outputs the selected music code with the sound collected by the microphone 113.
  • the electronic device 100 can output various music codes intended by the user with the sound of the sound source collected (sampled) by the microphone 113.
  • a program for realizing the electronic device described above is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed, thereby executing an execution process.
  • the “computer system” may include an OS and hardware such as peripheral devices.
  • the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
  • the “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.
  • the “computer-readable recording medium” refers to a volatile memory (for example, DRAM (Dynamic) in a computer system serving as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Random Access Memory)) that holds a program for a certain period of time is also included.
  • the program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium.
  • the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
  • the program may be for realizing a part of the functions described above. Furthermore, what can implement
  • DESCRIPTION OF SYMBOLS 10 ... Display part, 11 ... Base part, 16 ... Vibration part, 22 ... Detection part, 26 ... Cover member, 100 ... Electronic device, 101 ... 1st housing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

 電子機器は、自機器への接触の有無を判定し、接触位置を検知する検知部と、接触位置の予め定められた配置を音楽コードに対応付けて記憶する記憶部と、接触位置の配置に最も類似する配置に対応付けられた音楽コードを、記憶部に記憶された音楽コードから選択する制御部と、選択された音楽コードを出力する出力部と、自機器の姿勢を検知する姿勢センサと、を備え、姿勢に応じた音色で、選択された音楽コードを出力する。

Description

電子機器、及び音楽コード出力方法
 本発明は、電子機器、及び音楽コード出力方法に関する。
 本願は、2012年1月4日に出願された日本国特願2012-000180号に基づき優先権を主張し、その内容をここに援用する。
 携帯情報端末などの電子機器として、特許文献1に開示された電子機器が知られている。特許文献1に開示された電子機器は、様々な情報を画面に表示することができる。
日本国特開2010-86089号
 しかしながら、特許文献1には、電子機器を保持するユーザの指の配置について、言及がない。つまり、特許文献1に開示された電子機器は、自機器を保持するユーザの指の配置に応じた動作を実行することができないという問題がある。
 本発明の態様は、自機器を保持するユーザの指の配置に応じた動作を実行することができる電子機器、及びリズム出力方法を提供することを目的とする。
 本発明の態様は、自機器への接触の有無を判定し、接触が有ると判定した位置である接触位置を検知する検知部と、前記接触位置の予め定められた配置を音楽コードに対応付けて予め記憶する記憶部と、前記検知部により検知された前記接触位置の配置に最も類似する前記予め定められた配置に対応付けられた音楽コードを、前記記憶部により予め記憶された音楽コードから選択する制御部と、前記選択された音楽コードを出力指示に応じて出力する出力部と、自機器の姿勢を検知する姿勢センサと、を備え、前記姿勢に応じた音色で、前記選択された音楽コードを出力することを特徴とする電子機器である。
 また、本発明の別の態様は、電子機器における音楽コード出力方法であって、自機器の側面における接触の有無を判定し、接触が有ると判定した位置である接触位置を検知するステップと、検知された前記接触位置の配置に最も類似する前記予め定められた配置に対応付けられた音楽コードを、前記接触位置の予め定められた配置に対応付けて予め記憶された音楽コードから選択するステップと、前記選択された音楽コードを出力指示に応じて出力するステップとを有することを特徴とする音楽コード出力方法である。
 本発明の態様によれば、電子機器は、自機器を保持するユーザの指の配置に応じた動作を実行することができる。
本発明の第1実施形態における、電子機器の構成例を示すブロック図である。 本発明の第1実施形態における、電子機器の外観を示す斜視図である。 本発明の第1実施形態における、可動部が移動していない状態の電子機器の断面構成を示す図である。 本発明の第1実施形態における、可動部が移動した状態の電子機器の断面構成を示す図である。 本発明の第1実施形態における、検知部に指が接触した状態の電子機器の外観例を示す図である。 本発明の第1実施形態における、指が接触した位置を示す図である。 本発明の第1実施形態における、出力する音楽コードを定める方法を説明するための図である。 本発明の第1実施形態における、音楽コードを出力する動作手順を示すフローチャートである。 本発明の第2実施形態における、電子機器の構成例を示すブロック図である。 本発明の第3実施形態における、電子機器の構成例を示すブロック図である。 本発明の第4実施形態における、電子機器の構成例を示すブロック図である。
 [第1実施形態]
 本発明の第1実施形態について図面を参照して詳細に説明する。図1には、電子機器の構成例がブロック図により示されている。電子機器100は、筐体の側面に接触したユーザの各指の配置(間隔)を検知し、検知した配置により定まる様々な音楽コードを、出力指示に応じて出力する。ユーザは、電子機器100の筐体の側面に接触させた指の配置を変えることにより、電子機器100が出力する音楽コードを変化させることができる。
 電子機器100は、操作部115と、記憶部112と、制御部111と、出力部110とを備える。また、出力部110は、スピーカ114と、表示部10と、振動部16とを備える。
 操作部115は、ユーザによる操作入力を受け付ける。図2には、電子機器の外観が斜視図により示されている。操作部115(図1を参照)は、表示部10の表示面を囲む筐体の側面Fa~Fdに、検知部22A~22Dを有する。以下、検知部22A~22Dに共通する事項については、A~Dの符号を省略し、「検知部22」と表記する。検知部22は、接触の有無を判定し、接触が有ると判定した位置である接触位置を検知する。以下、接触位置は、筐体の側面Fa~Fdに接触したユーザの指の位置であるものとして説明を続ける。
 記憶部112は、接触位置の予め定められた配置を、音楽コードに対応付けて予め記憶する。また、記憶部112は、音データを記憶する。例えば、音データは、楽器(ピアノ、ギター等)の音色データでもよい。また、記憶部112は、表示部10に表示させる画像データを記憶してもよい。また、記憶部112は、振動部16の振動パターンを示す振動データを記憶してもよい。
 制御部111は、記憶部112から音データを取得する。また、制御部111は、接触位置を示す情報を、検知部22から取得する。また、制御部111は、接触位置の配置に最も類似する予め定められた配置に対応付けられた音楽コードを、記憶部112に予め記憶されている音楽コードから選択する。ここで、制御部111は、各配置のパターンマッチングにより、音楽コードを選択してもよい。
 制御部111は、タッチパネル(後述)から出力指示信号を受信した場合、記憶部112から取得した音データが示す音色で、音楽コードをスピーカ114から出力させる。ここで、制御部111は、所定の振動パターンで振動部16を振動させてもよい。また、制御部111は、出力する音楽コードに応じた所定の画像を、表示部10に表示させてもよい。
 スピーカ114は、制御部111による制御に応じて、音楽、操作音、報知音又は音声などの音を出力する。
 表示部10は、制御部111による制御に応じて、画像を表示する。表示部10は、例えば、液晶表示パネル、有機EL(Electro‐Luminescence)パネルである。また、表示部10の表示面上には、上述したタッチパネル(不図示)が備えられる。そのタッチパネルが受け付けた操作入力に応じた信号は、制御部111に入力される。ここで、操作入力に応じた信号は、例えば、音楽コードを出力することをユーザが指示するための出力指示信号である。
 振動部16は、固定部、可動部及び駆動部を有する。図3には、可動部が移動していない状態の電子機器の断面構成が示されている。また、図4には、可動部が移動した状態の電子機器の断面構成が示されている。以下、説明のため、図3及び図4にXYZ直交座標系を定める。具体的には、電子機器100の各構成要素の積層方向をZ方向と定める。また、Z方向に直交する平面をXY平面とし、XY平面において直交する方向をそれぞれX方向及びY方向と定める。
 振動部16は、制御部111による制御に応じて、振動を発生させる。固定部16aは、可動部16b及び駆動部を収容する。固定部16aは、例えば、円筒状に形成されており、ボトムカバー15の開口部内に配置される。
 可動部16bは、電子機器100の各構成要素の積層方向(Z方向)に移動可能に設けられる。駆動部は、可動部16bに接続されており、可動部16bをZ方向に往復移動させる。駆動部は、例えば、ボイスコイルモータである。
 電子機器100は、その筐体として、第一筐体部分101を備える。また、第一筐体部分101は、第二筐体部分102及びベース部11を備える。また、第二筐体部分102は、カバー部材26を備える。カバー部材26は、電子回路を収容するため、電子機器100の+Z側の端部を覆うよう備えられる。また、カバー部材26は、検知部22を備える。
 カバー部材26は、可動部16bに接続される。これにより、カバー部材26は、可動部16bと一体でZ方向に移動することができる。また、可動部16bの振動がカバー部材26に伝達されることにより、カバー部材26は、Z方向に振動する。
 例えば、可動部16bが+Z方向に移動する場合(図3を参照)、カバー部材26及び検知部22は、可動部16bの移動に伴って+Z方向に移動する(図4を参照)。これにより、第一筐体部分101と第二筐体部分102との間が広がり、第一筐体部分101と第二筐体部分102との間で相対的な移動が実行される。
 また、可動部16bが-Z方向に移動する場合(図3を参照)、カバー部材26は、可動部16bの移動に伴って-Z方向へ移動する。これにより、第一筐体部分101と第二筐体部分102との間で相対的な移動が実行される。また、可動部16bがZ方向に往復移動することにより、カバー部材26及び検知部22が振動する。
 次に、制御部111の詳細を説明する。
 図5には、検知部に指が接触した状態の電子機器の外観例が示されている。制御部111(図1を参照)は、表示部10の表示面を囲む筐体の側面に接触したユーザの各指の配置(間隔)に基づいて、様々なリズムを出力部110(図1を参照)から出力させる。
 図6は、指が接触した位置を示す図である。図6では、一例として、図5に示す状態におけるユーザの指の接触位置f1~f4が示されている。つまり、接触位置f1は、ユーザの親指が接触した位置である。また、接触位置f2は、ユーザの人差し指が接触した位置である。また、接触位置f3は、ユーザの中指が接触した位置である。また、接触位置f4は、ユーザの薬指が接触した位置である。以下、点Pは、検知部22Cと検知部22Dとが接する位置に在る点であるとして説明を続ける。
 また、制御部111は、接触位置に接触している指の種類(例えば、親指、人差し指)を識別してもよい。例えば、制御部111は、接触面積が最も大きい接触位置を、ユーザの親指が接触した位置であると識別してもよい。
 図7は、出力する音楽コードを定める方法を説明するための図である。図7では、一例として、音楽コードC6に予め対応付けられた配置を構成する接触位置f1、f2、f3b及びf4bと、実際に検知された接触位置f1、f2、f3a及びf4aとの対応関係が示されている。
 以下、点P(図6を参照)は、音階のうち音名B(シ)と音名C(ド)の間に対応付けられているものとする。また、音楽コードに予め対応付けられた配置は、一例として、鍵盤楽器(ピアノ等)における指の配置であるものとして説明を続ける。
 なお、音楽コードに予め対応付けられた配置は、鍵盤楽器における指の配置に限らなくてもよく、例えば、弦楽器(ギター等)における指の配置であってもよい。
 制御部111は、接触位置の配置を判定する。例えば、制御部111は、検知部22C、検知部22B、検知部22A、検知部22Dの順(図6における時計回り)に、点Pから接触位置までの距離、又は接触位置同士の間隔を判定する。
 また、制御部111は、検知された接触位置(図7では、接触位置f1、f2、f3a及びf4a)と、音楽コードに予め対応付けられた配置とのパターンマッチングにより、最も類似する配置(図7では、接触位置f1、f2、f3b及びf4b)に対応付けられた音楽コードを検出する。
 制御部111は、最も類似する配置に対応付けられた音楽コードを、次のように検出する。音楽コードを検出するための評価関数は、一例として、「D(i)= (f1-F1(i))+ (f2-F2(i)) 2+ (f3-F3(i)) 2+ (f4-F4(i))」と予め定められているとする。ここで、F1(i)、F2(i)、F3(i)及びF4(i)は、n種(nは、2以上の整数)の音楽コードのいずれかに対応する各接触位置である。また、iは、1~nの整数である。
 接触位置f1、f2、f3及びf4が与えられた場合、評価関数D(i)を最小化するiは、これらの接触位置に対応する音楽コードを示す番号「i*」となる。評価関数D(I*)が所定の規定値より小さい場合、制御部111は、f1=F1(i*)、f2=F2(i*)、f3=F3(I*)、f4=F4(I*)とすることで、最も類似する配置に対応付けられた音楽コードを検出する。
 ここで、制御部111は、評価関数D(I*)が所定の規定値以上である場合、オフセット補正を実行してもよい。すなわち、制御部111は、検知された接触位置の配置を、音楽コードに予め対応付けられた配置となるよう仮想的に補正してから、接触位置の補正後の配置を算出する。
 例えば、検知された接触位置の配置と最も類似する配置に予め対応付けられた音楽コードとして、音楽コードC6が検出されたとする。制御部111は、検出された音楽コードC6に予め対応付けられた配置(音名C、E、G及びA)を構成する接触位置f3b及びf4bに対して、ずれている接触位置f3a及びf4aを、接触位置f3b及びf4bの位置となるように仮想的に補正する。
 次に、音楽コードを出力する動作手順を説明する。
 図8は、音楽コードを出力する動作手順を示すフローチャートである。制御部111は、音データを記憶部112から取得する(ステップS1)。検知部22は、ユーザの指による接触の有無を判定し、接触が有ると判定した位置である接触位置を検知する(ステップS2)。制御部111は、接触位置の配置に最も類似する予め定められた配置に対応付けられた音楽コードを、記憶部112に予め記憶された音楽コードから選択する(ステップS3)。
 制御部111は、音楽コードを出力することをユーザが指示するための出力指示信号を、タッチパネル(不図示)から受信したか否かを判定する(ステップS4)。出力指示信号を受信した場合(ステップS4-Yes)、制御部111は、記憶部112から取得した音データが示す音色で、音楽コードをスピーカ114から出力させる。一方、出力指示信号を受信していない場合(ステップS4-No)、制御部111は、ステップS2に処理を戻す。
 以上のように、電子機器100は、自機器(本体、筐体)の側面における接触の有無を判定し、接触が有ると判定した位置である接触位置(図6を参照)を検知する操作部115の検知部22と、前記接触位置の予め定められた配置を音楽コードに対応付けて予め記憶する記憶部112と、検知部22により検知された前記接触位置の配置に最も類似する前記予め定められた配置に対応付けられた音楽コード(図7を参照)を、記憶部112により予め記憶された音楽コードから選択する制御部111と、前記選択された音楽コードを出力指示に応じて出力する出力部110(スピーカ114、表示部10、振動部16)と、を備える。
 この構成により、制御部111は、検知された前記接触位置の配置に最も類似する前記予め定められた配置に対応付けられた音楽コードを選択する。これにより、自機器(本体、筐体)を保持するユーザの指の配置に応じた動作を実行することができる。例えば、電子機器100は、自機器(本体、筐体)に触れている指の配置が予め定められた配置からずれていても、指の配置によりユーザが意図した音楽コード(例えば、音楽コードC6)を出力することができる。
 [第2実施形態]
 第2実施形態では、ユーザによる電子機器の持ち方(例えば、横持ち、縦持ち、斜め持ち)に応じて、音楽コードの音色が変更される点が、第1実施形態と異なる。以下では、第1実施形態との相違点についてのみ説明する。
 図9には、電子機器の構成例がブロック図により示されている。電子機器100は、自機器(本体、筐体)の姿勢を検知するセンサ117(姿勢センサ)を備える。センサ117は、電子機器100の姿勢、すなわち、ユーザの電子機器100の持ち方を検知する。制御部111は、出力部110により出力される音楽コードの音色を、センサ117により検知された姿勢に応じて定める。
 なお、検知部22は、接触位置f1~f4(図6を参照)に接触している指の種類と、接触位置f1~f4の位置関係とに基づいて、ユーザによる筐体の持ち方(例えば、向き、左右の手による差異)を判定してもよい。例えば、検知部22は、接触位置f1~f4の並び順が、電子機器100の筐体に対して時計回り(図6を参照)であるか否かに基づいて、電子機器を持つユーザの手が左右の手のいずれであるかを検知する。
 以上のように、電子機器100は、自機器(本体、筐体)の姿勢を検知するセンサ117(姿勢センサ)を備え、出力部110は、センサ117により検知された前記姿勢に応じた音色で、前記選択された音楽コードを出力する。
 この構成により、出力部110は、センサ117により検知された前記姿勢に応じた音色で、前記選択された音楽コードを出力する。これにより、電子機器100は、ユーザによる電子機器100(筐体)の持ち方(例えば、向き、左右の手による差異)に応じて、出力する音楽コードの音色を変更することができる。
 [第3実施形態]
 第3実施形態では、イメージセンサが併用され、明るさ及び色(平均値等)に応じて音色及び音高が変更される点が、第1及び第2実施形態と異なる。以下では、第1及び第2実施形態との相違点についてのみ説明する。
 図10には、電子機器の構成例がブロック図により示されている。電子機器100は、撮像部116(イメージセンサ)をさらに備える。撮像部116は、撮像した画像に応じた画像データを、制御部111に出力する。制御部111は、撮像した画像の平均色、テクスチャ、動き及び明るさのうち少なくとも一つを、画像データに基づいて識別する。制御部111は、撮像した画像の平均色、テクスチャ、動き及び明るさのうち少なくとも一つに応じて、出力部110により出力される音楽コードの音量及び音色を定める。
 以上のように、電子機器100は、撮像する撮像部116(イメージセンサ)を備え、出力部110は、撮像部116により撮像された画像に応じた音色で、前記選択された音楽コードを出力する。例えば、出力部110は、撮像された画像の明るさ、テクスチャ、動き又は平均色に応じて、音量及び音色を変更してもよい。
 この構成により、出力部110は、撮像部116により撮像された画像に応じて、音楽コードを出力する。これにより、電子機器100は、撮像された画像の明るさ及び平均色に応じて、音楽コードの音量及び音色を変更することができる。
 [第4実施形態]
 第4実施形態では、マイクを使ってサンプリングされた音が音源として使用される点が、第1~第3実施形態と異なる。以下では、第1~第3実施形態との相違点についてのみ説明する。
 図11には、電子機器の構成例がブロック図により示されている。電子機器100は、マイク113をさらに備える。マイク113は、電子機器100の周囲から音を収音(サンプリング)し、収音した音に応じた音データを制御部111に出力する。制御部111は、マイク113が収音した音に応じた音データを、記憶部112に記憶させる。出力部110は、収音された音に応じた音データを記憶部112から取得し、その音データによる音で、音楽コードをスピーカ114から出力する。
 以上のように、電子機器100は、収音するマイク113を備え、出力部110は、マイク113により収音された音で、前記選択された音楽コードを出力する。
 この構成により、出力部110は、マイク113により収音された音で、前記選択された音楽コードを出力する。これにより、電子機器100は、マイク113により収音(サンプリング)された音源による音で、ユーザが意図した様々な音楽コードを出力することができる。
 以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
 また、上記に説明した電子機器を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、実行処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。
 また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
 さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
 また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
 また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。
 さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
10…表示部、11…ベース部、16…振動部、22…検知部、26…カバー部材、100…電子機器、101…第一筐体部分、102…第二筐体部分、110…出力部、111…制御部、112…記憶部、113…マイク、114…スピーカ、115…操作部、116…撮像部(イメージセンサ)、117…センサ(姿勢センサ)、Fa~Fd…側面

Claims (5)

  1.  自機器への接触の有無を判定し、接触が有ると判定した位置である接触位置を検知する検知部と、
     前記接触位置の予め定められた配置を音楽コードに対応付けて予め記憶する記憶部と、
     前記検知部により検知された前記接触位置の配置に最も類似する前記予め定められた配置に対応付けられた音楽コードを、前記記憶部により予め記憶された音楽コードから選択する制御部と、
     前記選択された音楽コードを出力指示に応じて出力する出力部と、
     自機器の姿勢を検知する姿勢センサと、
     を備え、
     前記姿勢に応じた音色で、前記選択された音楽コードを出力することを特徴とする電子機器。
  2.  前記検知部は、自機器の側面に設けられていることを特徴とする請求項1に記載の電子機器。
  3.  収音するマイク
     をさらに備え、
     前記出力部は、前記マイクにより収音された音で、前記選択された音楽コードを出力することを特徴とする請求項1又は請求項2に記載の電子機器。
  4.  撮像するイメージセンサ
     をさらに備え、
     前記出力部は、前記イメージセンサにより撮像された画像に応じた音色で、前記選択された音楽コードを出力することを特徴とする請求項1から請求項3のいずれか一項に記載の電子機器。
  5.  電子機器における音楽コード出力方法であって、
     自機器の側面における接触の有無を判定し、接触が有ると判定した位置である接触位置を検知するステップと、
     検知された前記接触位置の配置に最も類似する前記予め定められた配置に対応付けられた音楽コードを、前記接触位置の予め定められた配置に対応付けて予め記憶された音楽コードから選択するステップと、
     前記選択された音楽コードを出力指示に応じて出力するステップと
     を有することを特徴とする音楽コード出力方法。
PCT/JP2012/083323 2012-01-04 2012-12-21 電子機器、及び音楽コード出力方法 WO2013103103A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012000180 2012-01-04
JP2012-000180 2012-01-07

Publications (1)

Publication Number Publication Date
WO2013103103A1 true WO2013103103A1 (ja) 2013-07-11

Family

ID=48745165

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/083323 WO2013103103A1 (ja) 2012-01-04 2012-12-21 電子機器、及び音楽コード出力方法

Country Status (1)

Country Link
WO (1) WO2013103103A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015129839A (ja) * 2014-01-07 2015-07-16 カシオ計算機株式会社 楽音発生指示装置、楽音発生指示方法およびプログラム
JP2018506050A (ja) * 2014-12-12 2018-03-01 インテル コーポレイション ウェアラブルな音声混合
CN108257586A (zh) * 2018-03-12 2018-07-06 冯超 一种便携式表演设备、音乐生成方法及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6491190A (en) * 1987-10-02 1989-04-10 Yamaha Corp Acoustic processor
JPH03163498A (ja) * 1990-10-23 1991-07-15 Yamaha Corp 電子楽器
JPH04174696A (ja) * 1990-11-08 1992-06-22 Yamaha Corp 演奏環境に対応する電子楽器
JPH06102877A (ja) * 1992-09-21 1994-04-15 Sony Corp 音響構成装置
JP2000293289A (ja) * 1999-04-09 2000-10-20 Hitachi Ltd 携帯型端末装置
JP2005099174A (ja) * 2003-09-22 2005-04-14 Yamaha Corp 和音演奏楽器
JP2006163435A (ja) * 2006-01-23 2006-06-22 Yamaha Corp 楽音制御装置
JP2010204401A (ja) * 2009-03-04 2010-09-16 Casio Computer Co Ltd 電子楽器
JP2011523099A (ja) * 2008-06-13 2011-08-04 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 手動入力の音符信号を生成するための装置およびその方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6491190A (en) * 1987-10-02 1989-04-10 Yamaha Corp Acoustic processor
JPH03163498A (ja) * 1990-10-23 1991-07-15 Yamaha Corp 電子楽器
JPH04174696A (ja) * 1990-11-08 1992-06-22 Yamaha Corp 演奏環境に対応する電子楽器
JPH06102877A (ja) * 1992-09-21 1994-04-15 Sony Corp 音響構成装置
JP2000293289A (ja) * 1999-04-09 2000-10-20 Hitachi Ltd 携帯型端末装置
JP2005099174A (ja) * 2003-09-22 2005-04-14 Yamaha Corp 和音演奏楽器
JP2006163435A (ja) * 2006-01-23 2006-06-22 Yamaha Corp 楽音制御装置
JP2011523099A (ja) * 2008-06-13 2011-08-04 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 手動入力の音符信号を生成するための装置およびその方法
JP2010204401A (ja) * 2009-03-04 2010-09-16 Casio Computer Co Ltd 電子楽器

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015129839A (ja) * 2014-01-07 2015-07-16 カシオ計算機株式会社 楽音発生指示装置、楽音発生指示方法およびプログラム
JP2018506050A (ja) * 2014-12-12 2018-03-01 インテル コーポレイション ウェアラブルな音声混合
CN108257586A (zh) * 2018-03-12 2018-07-06 冯超 一种便携式表演设备、音乐生成方法及系统

Similar Documents

Publication Publication Date Title
US9207781B2 (en) Input apparatus, control system, handheld apparatus, and calibration method
EP2975497B1 (en) Terminal device, terminal device control method, and program
JP2006323823A (ja) 音ベースの仮想キーボード、装置、及び方法
US10490174B2 (en) Electronic musical instrument and control method
WO2008120049A2 (en) Method for providing tactile feedback for touch-based input device
KR20140107788A (ko) 이벤트 제어 방법 및 그 전자 장치
US20170344113A1 (en) Hand-held controller for a computer, a control system for a computer and a computer system
JP2010530105A (ja) 高精度入力機能を備える装置
JP5664240B2 (ja) 情報入力システム、情報入力方法、情報入力プログラム
WO2013103103A1 (ja) 電子機器、及び音楽コード出力方法
US20170287453A1 (en) Musical score display control method, device and program
US10481702B2 (en) Input device, information processing apparatus and manufacturing method of input device
JP5962505B2 (ja) 入力装置、入力方法及びプログラム
WO2015136835A1 (ja) 電子機器
US9934768B2 (en) Musical score display control device and method
WO2013084958A1 (ja) 電子機器及び振動音減衰方法
WO2015098061A1 (ja) 電子機器
KR20090111943A (ko) 터치스크린을 이용한 악기 연주 시뮬레이션 장치 및 방법
US20170337909A1 (en) System, apparatus, and method thereof for generating sounds
CN109739388B (zh) 一种基于终端的小提琴演奏方法、装置及终端
JP2013148657A (ja) 電子機器、及びリズム出力方法
JP6782491B2 (ja) 楽音発生装置、楽音発生方法およびプログラム
CN109801613B (zh) 一种基于终端的大提琴演奏方法、装置及终端
KR101534281B1 (ko) 악기 모듈
JPWO2014045765A1 (ja) 携帯端末、その制御方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12864486

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12864486

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP