Il suono può essere interpretato sia come fenomeno ondulatorio nell’aria o in altri mezzi elastici (stimolo) sia come eccitazione del meccanismo uditivo che da luogo alla percezione acustica (sensazione). La scelta dell’uno o dell’altro punto di vista da luogo a due aspetti dell’acustica, la fisica e la psicofisica, a cui corrispondono diverse grandezze: frequenza e altezza, intensità sonora e sensazione sonora, forma d’onda (o spettro equivalente) e timbro. Ecco un breve esempio: per le frequenze basse l’orecchio umano percepisce un’altezza differente a intensità differenti, aumentando il volume l’altezza scende. Note pure di frequenza 168 e 318 Hz a basso volume risultano discordanti sgradevoli, a volumi più alti tuttavia l’orecchio li percepisce come in relazione di ottava (come fossero 150 e 300 Hz). Questo per far capire come l’orecchio umano non sia uno strumento di misura esatto, anche se estremamente sensibile. La psicoacustica studia le modalità con cui il sistema uditivo e il cervello elaborano suoni e rumori.
Uno studio sperimentale sistematico dei fenomeni sonori ha inizio con G. Galilei, cui risalgono idee e ricerche sulla natura del suono e sui suoi caratteri, sulle proprietà delle corde vibranti, sui metodi per la determinazione della velocità del suono nell’aria, ecc…; a lui è dovuto in particolare l’aver riconosciuto nell’altezza d’un suono un elemento legato alla frequenza di vibrazione della sorgente sonora e di aver intuito la natura composita del suono delle corde. Quasi contemporanee all’opera di Galilei sono quelle di G. Benedetti, di G.F. Sagredo, che nel 1615 dimostra che il mezzo di trasmissione del suono è l’aria; di M. Mersenne, che effettua una prima determinazione della velocità del suono; e di P. Gassendi, cui è dovuta l’osservazione dell’indipendenza della velocità dall’altezza del suono. Nel 1663 O. von Guericke dimostra che il suono si propaga non solo nell’aria ma anche nei liquidi e nei solidi. Le ricerche del XIX secolo approfondiscono, soprattutto a opera di H. von Helmholtz e Lord Rayleigh, lo studio della propagazione ondosa e, in particolare, degli aspetti energetici di questa, mentre l’invenzione del fonografo e del microfono (1877) pone per la prima volta il problema della registrazione e della riproduzione dei suoni, nonché della loro trasduzione elettrica, problema che costituisce l’oggetto principale dell’elettroacustica. In quest’ultimo settore, crescendo l’importanza delle informazioni sonore nel quadro dei moderni mass media, e nel collegato settore dell’acustica architettonica, si sono avuti i maggiori sviluppi.
Per quanto riguarda la fisica del suono, va anzitutto detto che le onde sonore sono onde meccaniche (vale a dire hanno bisogno di materia per propagarsi) longitudinali (vale a dire il movimento delle particelle avviene nella stessa direzione di propagazione).
L’orecchio umano è in grado di essere stimolato da frequenze comprese tra 16 e 20.000 Hz. Un’onda con frequenza inferiore a quella del campo di udibilità è chiamata infrasuono, un’onda con frequenza superiore a quella del campo di udibilità è detta ultrasuono. L’onda sonora è quindi costituita da una perturbazione del mezzo di trasmissione. In particolare le particelle dell’aria (quasi 100.000 ogni metro cubo) nella loro oscillazione creano delle aree di compressione, dove la pressione è leggermente maggiore di quella atmosferica, e delle sacche di rarefazione, dove la pressione è leggermente inferiore a quella atmosferica. I segnali trasmessi dalla voce e dalla musica sono quindi lievi increspature che si sovrappongono alla pressione atmosferica. Durante lo spostamento dell’onda sonora le zone di compressione e di rarefazione si spostano lungo la direzione del raggio di propagazione.
Il suono, in assenza di interferenze dovute ad oggetti circostanti, si propaga uniformemente in tutte le direzioni, il che significa che i fronti d’onda formano rispetto ad una sorgente puntiforme dei gusci sferici. L’intensità del suono diminuisce quindi con il quadrato del raggio.
L’emissione di suoni da parte di un corpo in vibrazione costituente la sorgente sonora e la loro propagazione sino all’orecchio di un ascoltatore, o, eventualmente, sino al microfono di un dispositivo di registrazione o di amplificazione sonora, avvengono secondo le leggi che governano la generazione e la propagazione di onde elastiche in genere. Per effetto del moto vibratorio della sorgente (per esempio, una corda o una membrana elastica in vibrazione, o anche una massa d’aria in oscillazione entro un recipiente aperto) si determina nell’aria circostante una successione di strati compressi e rarefatti, che si va allargando tutt’intorno (sono queste le onde longitudinali prima nominate): ciascuna delle particelle d’aria contigua alla sorgente prende a vibrare in sincronismo con questa, spostandosi al di qua e al di là della sua normale posizione d’equilibrio e trasmettendo il moto alle particelle a essa contigue lungo la retta che le congiunge con la sorgente, cioè lungo una direzione di propagazione, dei suoni emessi dalla sorgente.
Per comprendere il comportamento di un’onda sonora, si definiscono le seguenti grandezze: lunghezza d’onda, ampiezza d’onda, frequenza, periodo, intensità, velocità di propagazione e timbro. Per lunghezza d’onda si intende la distanza percorsa da un’onda per ritornare nella stessa configurazione, cioè la distanza percorsa dall’onda in un periodo. L’ampiezza d’onda è lo spostamento massimo percorso da una particella oscillante attorno alla sua posizione di equilibrio. Dall’ampiezza è possibile ricavare l’intensità che, nel caso di un’onda sonora, rappresenta la pressione esercitata dall’onda stessa su una superficie. In quanto misura dello spazio, tanto maggiore sarà l’ampiezza, tanto maggiore sarà la pressione esercitata sull’ostacolo. La frequenza è il numero delle oscillazioni compiute da uno stesso punto dell’onda nell’unità di tempo. Il periodo è l’intervallo di tempo necessario per compiere un’oscillazione completa. L’intensità di un’onda sonora è definita come la potenza media per unità di area con la quale l’energia è trasmessa dall’onda. La velocità di propagazione è la velocità con la quale il suono si propaga in un mezzo e dipende dalla densità del mezzo stesso e dalla forza di legame fra le molecole costituenti quel mezzo. Il timbro è l’entità fisica associata alla qualità del suono: esso permette di distinguere suoni aventi frequenze ed intensità uguali, ma generati da sorgenti diverse.
A caratterizzare la perturbazione sonora, punto per punto e istante per istante, può essere assunto lo spostamento che la generica particella del mezzo subisce; se lo spostamento è una funzione sinusoidale del tempo, si parla di suono puro, altrimenti si parla di suono composto; in questo caso il suono si può pensare costituito dalla sovrapposizione di suoni armonici, cioè di suoni puri di opportuna ampiezza e fase iniziale e di frequenza multipla di quella del suono armonico di frequenza più bassa, detto primo armonico o, più correntemente, suono fondamentale; le caratteristiche dei suoni armonici costituenti un suono composto si ottengono mettendo in opera i metodi dell’analisi armonica di Fourier. Le varie armoniche possono partire entrambe dallo 0, e quindi si dicono in fase, oppure presentare dei ritardi. Il ritardo di mezza onda corrisponde a 180°, il ritardo di 360° corrisponde di nuovo alla fase. Spesso le onde complesse presentano delle componenti che non sono multipli interi esatti della frequenza fondamentale, in questo caso non si parla di armonica ma di parziale. Le parziali sono in grado di dare la caratteristica timbrica di alcuni strumenti, come le campane, o il suono del pianoforte.
La rappresentazione del suono
Il suono può essere rappresentato graficamente in modi diversi. Conoscere le sue rappresentazioni è molto utile, perché spesso i nuovi software di editing del suono ci danno l’opportunità di visualizzare le registrazioni audio in tempo reale. Le variabili fisiche con cui si rappresenta un evento sonoro sono le seguenti: tempo, frequenza, ampiezza.
La rappresentazione più comune usata dalla maggior parte dei software audio è l’oscillogramma, chiamato anche forma d’onda. L’oscillogramma mette in relazione il tempo e l’ampiezza. L’oscillogramma ci permette di vedere i transienti di colpi percussivi come la batteria, di individuare in una traccia di canto le singole sillabe, di capire dall’ampiezza del suono l’andamento dinamico. L’oscillogramma non ci dice però niente sulla timbrica del suono, ed è molto artificioso avere informazioni sulla frequenza. Lo spettro sonoro mette invece in relazione ampiezza e frequenza. In uno spettro sonoro il segnale del suono è scomposto in tutte le sue varie componenti, che sono riportate insieme alla loro ampiezza nel grafico. Lo spettro ci permette di vedere la fotografia della timbrica di un suono, quindi le varie armoniche e parziali che lo compongono. Esistono analizzatori di spettro che fotografano lo spettro sonoro in tempo reale, in maniera da seguire la distribuzione delle frequenze in una registrazione. Una rappresentazione del suono, molto utilizzata in diverse applicazioni audio, come il riconoscimento vocale e la bioacustica, è lo spettrogramma, che mette in relazione tempo, frequenza ed energia sonora. Un suono può cambiare nel tempo, cambiando la frequenza della fondamentale e cambiando il suo spettro armonico. Lo spettrogramma ci permette di osservare questi cambiamenti. Lo spettrogramma viene rappresentato in due dimensioni, in cui si riporta in ascisse il tempo e in ordinate la frequenza. Per indicare le ampiezze delle varie frequenze si utilizzano invece o bande di colori o tonalità di grigio, come se fosse una fotografia dall’alto, e i chiari scuri indicassero rilievi e depressioni. In realtà è come se si utilizzasse una rappresentazioni in tre dimensioni (frequenza, ampiezza, tempo), e l’ampiezza venisse proiettata sul piano tempo-frequenza. Alcuni programmi permettono di puntare il cursore sulle varie aree del grafico e avere misurazioni precise delle tre variabili.
Psicoacustica
La psicoacustica è la disciplina che studia il complesso processo per cui un suono fisico diventa una percezione sonora. Lo studio di questo processo ha un carattere altamente multidisciplinare in quanto coinvolge l’acustica, l’elettromeccanica, la neurologia, la psicologia. Molti risultati di acustica percettiva ottenuti nel campo della caratterizzazione delle capacità di analisi in tempo-frequenza dell’orecchio sono impiegati nelle moderne tecniche di compressione dei segnali sonori. Infatti, i più affermati sistemi di codifica del suono sfruttano i principali fenomeni di psicoacustica al fine di minimizzare e ottimizzare il numero di bit necessario per rappresentare un segnale sonoro. Tra i concetti più utilizzati figurano: a) la soglia di percezione uditiva assoluta, ossia la quantità di energia di un suono puro necessaria affinché un ascoltatore possa percepire il suono in un ambiente senza rumore; spesso il sistema di codifica fissa il punto più basso della curva della soglia in funzione della frequenza (all’incirca intorno ai 4 kHz) uguagliandolo all’energia rappresentata da un aumento o diminuzione di 1 bit del segnale; b) le bande critiche di frequenza, ossia le larghezze di banda per le quali il responso soggettivo cambia in modo sensibile, fenomeno collegato alla selettività che ha l’orecchio alle frequenze sonore, principalmente determinata dalla relazione tra frequenze percepite e posizione lungo la membrana basilare; c) il mascheramento, ossia il fenomeno per cui un suono non viene percepito a causa della presenza contemporanea di un altro suono più intenso: la spiegazione del meccanismo responsabile di questo effetto molto complesso, che dipende da vari parametri (come per esempio, la durata temporale del segnale) e si manifesta come mascheramento all’interno di una banda critica oppure, anche, di bande critiche vicine, può essere ricercata nell’inibizione, a livello della membrana basilare, causata dal suono forte, della trasmissione dell’oscillazione associata al suono debole. Sulla possibilità di quantificare il fenomeno del mascheramento si basano tutti i codici di compressione moderni, come, per esempio, il diffusissimo MP3. Infatti una grossa riduzione del numero di bit necessari per la codifica si ottiene allocando dinamicamente un numero di bit variabile in modo tale da perdere le componenti del segnale che si trovino sotto la soglia di mascheramento (e che quindi viene assunta come il livello del rumore di quantizzazione).
Fenomeni non lineari
Alcuni fenomeni (onde d’urto, generazione di armoniche, flusso di materia, cavitazione, ecc…) che possono manifestarsi nella propagazione del suono (o più in generale di un’onda elastica) non sono descritti dall’equazione lineare delle onde, che va sostituita da una forma non lineare nell’ambito della cosiddetta acustica non lineare. Il limite tra fenomeni acustici lineari e non lineari ovviamente non è netto: gli effetti di non linearità sono rilevanti quando il rapporto tra l’ampiezza della velocità di oscillazione delle particelle del mezzo e la velocità di propagazione dell’onda (cioè il numero di Mach, o, in modo del tutto equivalente, il rapporto tra la variazione della pressione dovuta all’onda e la pressione del mezzo a riposo o quello tra l’ampiezza della vibrazione e la lunghezza d’onda) non è molto minore dell’unità. Si può facilmente intuire l’origine di alcuni fenomeni non lineari, se si pensa, per esempio, a una corda vibrante tesa tra i due estremi fissi: se la corda descrive oscillazioni ampie, la sua lunghezza media nel tempo è apprezzabilmente maggiore di quando è a riposo, pertanto sarà maggiore la tensione media cui è sottoposta e quindi maggiore la velocità di propagazione dell’onda che la percorre; analogamente in un fluido investito da un’onda elastica sufficientemente intensa la pressione media è apprezzabilmente maggiore di quella che si avrebbe in assenza del suono. Il flusso di materia in fluidi sottoposti a intenso irraggiamento acustico si deve all’insorgere di una forza netta diversa da zero su ogni particella di fluido attribuibile alla media temporale di termini non lineari nell’equazione del moto. Si può inoltre avere cavitazione acustica o sonora (continua o impulsiva), cioè la formazione di cavità piene di vapore all’interno di un liquido prodotte dalle rapide variazioni locali di pressione associate all’onda acustica.
Suono e scienze cognitive
Una significativa ricerca interdisciplinare condotta dall’Associazione Vocal Sound di Lugano tra i campi della fisica, della medicina e della musica, sul tema “la risposta umana al suono e alla vibrazione”, ha portato a una nuova esperienza dell’Informazione, che, per usare delle parole di Fritjof Capra, fornisce “una nuova via d’accesso alle scienze cognitive attraverso il suono”. In base all’approccio cognitivo sviluppato dall’Associazione Vocal Sound (denominato anche approccio cognitivo ININ) l’uomo può riconoscere che è sempre in sintonia con questa natura profonda della realtà, dove esiste un allineamento con diversi livelli di frequenza che esprimono differenti livelli dell’esistenza. Il processo attraverso cui l’informazione implicita si allinea con l’antenna intuitiva umana può essere riconosciuto come un allineamento con le frequenze del campo vibrazionale in cui siamo immersi, che costituisce l’origine e la vera natura della realtà. A proposito del suono emesso dalla voce umana quando viene sperimentato l’approccio cognitivo ININ, Anna Bacchia e Lorenzo Sorbi scrivono: “Quando l’antenna intuitiva è attiva in ININ la voce emette un suono integrato col sé. In ININ il suono della voce si presenta come un cristallo puro, caratterizzato da dei picchi di frequenza, dette frequenze pure. […] Una delle caratteristiche più interessanti di questo processo è che l’emissione di frequenze pure vocali ha una straordinaria capacità di riequilibrio energetico sull’organismo, come è emerso da una serie di ricerche che abbiamo svolto nel laboratorio Vocal Sound sul tema della risposta umana al suono della voce. Inoltre le frequenze pure sono registrabili in processi dove ascolto e comprensione si svolgono a livelli estremamente espansi”. Il suono che emerge dal processo cognitivo ININ assume pertanto un notevole rilievo anche sul piano curativo, di riequilibrio dell’organismo. A questo riguardo, Anna Bacchia e Melisa Rossi scrivono anche (vedi l’articolo “ININ: il salto quantico della mente”, Scienza e Conoscenza, n° 29): “L’Informazione può riequilibrare il quadro bioenergetico di un organismo attraverso le frequenze pure emesse dal suono di una voce. La voce che emette, non sceglie la tecnica o il suono da emettere, ma quella voce è orientata e SI suona da sé, mentre la consapevolezza della voce che emette è allineata sull’organismo che riceve il suono. Come rilevato in diverse ricerche del Gruppo di Studio Vocal Sound, l’organismo che riceve, dopo tale processo, presenta un ri-equilibrio misurabile del suo quadro bioenergetico generale”.
Davide Fiscaletti
Riferimenti bibliografici
treccani.it
fmboschetto.it
mauriziogalluzzo.it
A. Bacchia, L. Sorbi, “ÌNIN. La sostenibile leggerezza dell’essere. Scienza, arte e creazione quotidiana”, Collana Vocal Sound 9, 2008.
A. Bacchia, M. Rossi, “ÌNIN, una nuova esperienza dell’Informazione: il salto quantico della mente”, Scienza e Conoscenza, n° 29, 2009.