Isler, in­ge­gne­re del suo tem­po

Heinz Isler appartiene assieme a Sergio Musmeci e Frei Otto a quella che viene definita «greatest generation», capace di generare forme nuove, che rispondono – ottimizzate – a un desiderio di modernità cresciuto durante il boom economico. La sua opera è perfettamente in linea con il suo tempo: è maestro della sua generazione, espressione di un processo storico in continua evoluzione.

Data di pubblicazione
05-08-2024
Tullia Iori
Storica dell’ingegneria, responsabile scientifico del progetto SIXXI presso l’Università degli studi di Roma Tor Vergata

Heinz Isler (1926-2009) è stato uno dei protagonisti dell’ingegneria mondiale del Novecento. Ha segnato, a 33 anni, in un celebre intervento a un convegno a Madrid, l’irrecuperabile rottura con gli ingegneri della generazione immediatamente precedente – come Pier Luigi Nervi (1891-1979), Ove Arup (1895-1988), Eduardo Torroja (1899-1961) – rappresentando inconsapevolmente la sua generazione, che comprende i coetanei Sergio Musmeci (1926-1981) e Frei Otto (1925-2015).

Proviamo ad approfondire le differenze tra queste «coorti», giocando – non senza una certa ironia – con le classiche timeline della teoria generazionale (che si riferiscono, come è noto, alla storia sociale americana e quindi sarebbero qui assai poco pertinenti). In quelle cronologie, la generazione di Nervi è chiamata la «lost generation» mentre quella di Isler la «greatest generation».

Gli ingegneri nati alla fine dell’Ottocento (la generazione «perduta», dunque, che abbiamo citato sopra) sono quelli che studiano all’università un materiale tutto nuovo, il cemento armato, e lo adottano. Hanno evidentemente un approccio diverso da quelli che si sono formati subito prima, rappresentati per esempio da Robert Maillart (1872-1940) o Eugène Freyssinet (1879-1962), che incontrano la nuova materia nella loro professione strada facendo e la usano, in qualche senso, da «autodidatti». Questa generazione di pionieri vive in un contesto ancora molto influenzato dalla cultura ottocentesca, che aveva scoperto l’acciaio, e prima il ferro pudellato e prima ancora la ghisa come materiali per la costruzione: e bastano pochi grandi salti per passare alla generazione di Gustave Eiffel (1832-1923), poi a quella di Robert Stephenson (1803-1859), di Marc Seguin (1786-1875), di Thomas Telford (1757-1834) e così via indietro nel tempo.

Quali sono i principi di base della progettazione ingegneristica che permangono tra le varie generazioni? La cultura dell’ingegnere, in tutti i tempi, si basa sulla ricerca della soluzione migliore di un problema. Ma migliore in che senso?

Nei procedimenti convenzionali della progettazione strutturale, il primo passo consiste nello scegliere – tra tutte le tipologie già sperimentate – una soluzione «adatta» per tipo e per forma: il progettista, in base alla sua esperienza e alle sue preferenze, predimensiona gli elementi in base ai carichi possibili e, infine, applica – a mano o con l’aiuto di uno strumento, oggi informatico – il calcolo della meccanica delle strutture per verificare la stabilità e per valutare le sollecitazioni e le deformazioni. Questa sequenza di operazioni serve a prevedere il comportamento strutturale e si basa sulla ripetizione di modelli consolidati.

Di grande interesse – e promotore di sviluppo e innovazione – è da sempre il procedimento inverso: cercare la forma migliore per soddisfare i parametri progettuali noti, cioè vincoli esterni e carichi.

Dall’epoca moderna, questa ricerca si caratterizza come tensione verso il minimo. Anche in epoca classica, in verità, il minimo aveva avuto la sua fortuna, ma prende l’autorità dell’assioma solo dopo Galileo Galilei e le sue «nuove scienze». Galileo afferma che «par ben ragionevole, anzi pur necessario» togliere il «superfluo» se quello che resta è ugualmente resistente.

Per l’ingegnere moderno, il minimo è razionalità (sia che ne ritrovi il paradigma nella natura oppure, all’opposto, nella scienza); è economicità (perché consente di ridurre il consumo di materiale e quindi il peso e il costo; ma anche di ottimizzare il modo di costruire e i relativi tempi); è bellezza (intesa come essenzialità figurativa).

Nell’evoluzione dell’ingegneria moderna, si riconoscono alcuni passaggi fondamentali nel percorso di ottimizzazione strutturale. All’inizio dell’Ottocento, con l’arrivo sul mercato dei materiali metallici a costi competitivi, si fa per esempio strada la trave in ferro pudellato sagomata a doppio T, per sfruttare al meglio la sezione nella configurazione di appoggio-appoggio, adattandola all’andamento triangolare a farfalla della sollecitazione di flessione in un materiale elastico. È un processo di ottimizzazione lento, non privo di casualità e ibridazione involontaria, ma riesce bene e viene spesso narrato come un percorso consapevole molto più di quanto non sia stato in realtà.

Poi, la flessione è riconosciuta come la «peggiore» delle tensioni, visto che la presenza ineluttabile dell’asse neutro (dove il materiale certamente non lavora) rende il concetto stesso di ottimizzazione poco applicabile (nel frattempo Stephenson, a metà secolo, si accorge, grazie a un modello, che una trave iperstatica continua su più appoggi ha una risposta «migliore» in termini di sollecitazione del materiale rispetto all’analoga soluzione a travi appoggiate multiple e costruisce così secondo il nuovo modello il suo Britannia Bridge).

Quando nella seconda metà dell’Ottocento si sviluppano le strutture reticolari, l’ottimizzazione nell’impiego del materiale diventa decisamente più efficace: nelle aste che confluiscono nei nodi la sollecitazione è solo assiale e rigorosamente costante nella lunghezza, quindi basta dimensionare la sezione trasversale sfiorando il limite della resistenza a trazione o a compressione del materiale e l’ottimo è raggiunto. È la sfida di Eiffel, obbligato a vincere le gare d’appalto offrendo massimi ribassi, che raggiunge livelli di precisione di calcolo tali da avere ricadute immediate sull’economia della costruzione.

L’avvento del cemento armato, a inizio Novecento, riporta in auge la flessione, affrontata questa volta con un materiale eterogeneo, che può essere adattato e quindi ottimizzato per la distribuzione a farfalla: nello strano matrimonio tra acciaio e calcestruzzo, la spartizione dei compiti consente all’armatura di lavorare esclusivamente alla sollecitazione più congeniale, la trazione, lasciando al composto cementizio il ruolo di assorbire la compressione. Nonostante la capacità di progettisti come Maillart di sagomare ponti facendoli coincidere con il diagramma del momento o di disegnare travi reticolari panciute secondo principi di equisollecitazione, è presto chiaro che con il cemento armato non si raggiungerà mai l’ottimo della massima sollecitazione contemporanea dei due materiali, paradosso che spinge verso soluzioni alternative assai più razionali ma comunque di imperfetta ottimizzazione (come il cemento armato precompresso).

Sono le volte sottili, nella prima metà del Novecento, a recuperare, ancora una volta, la ricerca galileiana dell’ottimo strutturale: superfici di cemento armato a comportamento membranale, così sottili da rifiutare la rigidezza flessionale, vengono sagomate per rispondere per forma alle sollecitazioni. Se la resistenza deve essere garantita dalla forma invece che dalla massa, occorre allora ricercare la «forma resistente» ottima. Franz Dischinger (1887-1953) esperisce le sagome tradizionali (cupole e volte e le loro combinazioni sinclastiche) e Torroja prova le superfici a doppia curvatura inversa (le rigate, in particolare, come gli iperboloidi di rotazione a una falda), assemblate in composizioni che introducono nell’architettura strutturale forme inedite anche se riconducibili a rigorose formule matematiche. Ma è soprattutto la ricerca di Nervi a farci entrare nell’approccio progettuale di questo periodo: Nervi, come è noto, inventa un materiale, il ferrocemento, di spessore minimo, per realizzare le sue coperture plissettate o nervate (volte e cupole prevalentemente), assemblando poi come in un puzzle migliaia di pezzi preparati a terra. Il nuovo sistema di costruzione è la sua risposta all’autarchia, cioè alle restrizioni all’importazione dei materiali dall’estero che il regime fascista adotta propagandisticamente dal 1936 per rispondere alle sanzioni della Società delle Nazioni seguite all’invasione dell’Etiopia. Dunque, per Nervi la soluzione «migliore» è quella che fa risparmiare i materiali non italici (come il legno e il tondino di acciaio per le armature): è questo il criterio di ottimizzazione che, applicato poi nel dopoguerra, lo condurrà ai suoi capolavori.

Nella seconda metà del Novecento le cose cambiano. Si assiste a un nuovo successo delle strutture discrete: le strutture reticolari spaziali, a nodi tridimensionali identici e industrializzati, riavviano le ricerche sul calcolo e sull’ottimizzazione almeno della sollecitazione assiale ma curiosamente i più interessanti sperimentatori sono ancora della generazione «perduta», Buckminster Fuller (1895-1983), soprattutto.

Intanto, è il tempo di una nuova generazione, che prende però due strade ben distinte. Da una parte, dopo aver saturato la sperimentazione sui reticoli tesi o compressi, prevale l’orientamento a preferire la trazione rispetto alla compressione, per via del noto fenomeno dell’instabilità a carico di punta che impedisce di sfruttare il materiale compresso fino alla sua effettiva resistenza ultima. Lo sviluppo delle tensostrutture si inserisce in questo processo, riportando al centro dell’attenzione anche le ricerche di ottimizzazione delle forme resistenti continue: le tensostrutture, prima assemblate con reti di funi, poi tesando membrane, individuano superfici minime equitese e a doppia curvatura inversa. Le strategie di form finding messe a punto in questi anni, soprattutto da Otto, sono esclusivamente basate su modelli fisici in scala ridotta, sui quali per tentativi cercare la forma ottimizzata ai carichi esterni e verificare direttamente la resistenza con prove di carico miniaturizzate e indagini in galleria del vento.

Analoghe sperimentazioni sono condotte contemporaneamente sulle volte sottili, abbandonando la prigione delle regole matematiche e spaziando nell’inesauribile campo delle forme libere. Arriva a quest’altezza cronologica l’articolo del 1959 con cui Isler presenta, al primo congresso dell’International Association for Shell Structures, le sue proposte di New Shapes for Shells. La «generazione perduta» gli scatena contro ovviamente una vivace polemica: sulla fattibilità costruttiva, per l’eccessivo costo delle casseforme; sui rischi di una simulazione statica condotta solo su eccitanti modelli in scala, esentati dai problemi di cantiere; infine, sulla compatibilità architettonica di forme generate appendendo tessuti sottili irrigiditi con il gesso o lasciando che pellicole saponose suggeriscano la superficie minima equitesa dato un perimetro di vincolo.

Un approccio molto simile, anche in termini di fortuna critica, è quello di Sergio Musmeci, che nel 1967 sagoma il ponte sul Basento a Potenza assecondando la stessa ricerca di superficie minima equicompressa, aiutandosi con modellini confezionati con fili di cotone e membrane saponose, poi con gomma in trazione e infine con modelli in grande scala di microcemento: la forma strutturale per Musmeci è rigorosamente conseguenza del principio di minimo strutturale, ma non solo. Musmeci dedica gran parte del suo volumetto La Statica e le strutture, pubblicato nel 1971, proprio al tema «La qualità di una struttura e il minimo strutturale», riconoscendo che la riduzione dell’impiego di materiale debba essere ricercata sia per ridurre gli ingombri e migliorare l’efficienza della struttura, sia per più importanti ragioni di carattere estetico, che spingono il progettista verso strutture il più possibile «essenziali ed espressive».

Musmeci ha, infine, un sogno: «io penso che un giorno, forse non molto lontano, sarà questo il modo di progettare di uno strutturista creativo: il calcolo automatico, lungi dal limitare le sue possibilità di immaginazione, ne rappresenterà un efficiente supporto, oltre che un potente mezzo di amplificazione della loro portata e della loro presa sulla realtà».

Le ricerche compiute dagli strutturisti delle generazioni successive gli danno ragione: l’approccio dell’ottimizzazione strutturale si rilancia verso la fine del secolo attraverso il nuovo strumento della modellizzazione digitale. Il fine dello sfruttamento ottimo del materiale viene raggiunto attraverso forme resistenti modellate non grazie a modellini fisici artigianali ed empirici, ma a complessi modelli digitali, resi possibili dall’inarrestabile crescita della potenza di calcolo dei computer, anche i più economici da tavolo.

A dire il vero non è bastato, come ipotizzava Musmeci, solo lo sviluppo dei processori: sono servite anche teorie complesse di ricerca operativa, in particolare lo sviluppo di algoritmi evolutivi, ovvero tecniche informatiche derivate dalla biologia e dalla teoria darwiniana: l’idea è imitare i passaggi genetici che hanno condotto all’evoluzione delle strutture presenti in natura e che si basano in parte su meccanismi di ibridazione casuale e in parte sul concetto di sopravvivenza del più adatto. In questo contesto, operano gli ingegneri della generazione dei «Boomers», con i due estremi di Mutsuro Sasaki (1946) con la sua sensitivity analysis e di Laurent Ney (1964), talentuoso ottimizzatore almeno nella prima parte della sua carriera.

Ora, tracciato questo schizzo impreciso e non esaustivo e limitandoci ai progettisti del cemento armato, si possono riconoscere i caratteri distintivi degli approcci di ottimizzazione delle diverse generazioni a confronto.

Nelle generazioni pionieristiche, che per prime hanno a che fare con il nuovo materiale, prevale l’idea che il minimo sia razionalità, anche alla luce dell’influenza della ricerca ottocentesca, dedicata alla messa a punto di una rigorosa teoria generale dell’elasticità capace di spiegare matematicamente il comportamento delle strutture.

Per la generazione «perduta», che vive direttamente la Seconda Guerra Mondiale e in qualche caso anche la prima, cresciuta in un rigore etico e morale assoluto e che deve fare i conti con la povertà, la fame e la penuria di materiale che viene requisito per scopi bellici, prevale certamente un criterio di ottimizzazione economica, che passa per la riduzione dell’uso della materia e dei costi in favore degli interessi generali della popolazione.

Per la generazione successiva – quella dei «greatest», laureati a guerra finita – l’ottimizzazione acquista un nuovo contenuto estetico: le opere di Isler, Musmeci e Otto non sono «migliori» perché riducono i costi del cantiere o il peso dei materiali, ma perché generano forme nuove, che rispondono – ottimizzate – a un desiderio di modernità cresciuto durante il boom economico. Le loro strutture, inedite, uniche, originali, sono percepite come belle per la forma che resta sempre essenziale ma non è più elementare, basica, scontata. Il giudizio di arbitrarietà, espresso dai «padri perduti», le marchia per anni: ma indicano la via ai «Boomers». Saranno loro a dare nuovi significati al principio di minimo, individuando un approccio di ottimizzazione «pop» che soddisfa le esigenze di spettacolarità della committenza, che al minimo costo attuale preferisce il rientro economico nel tempo, giustificato dall’investimento turistico, attraverso l’attrattività estetica della struttura per il grande pubblico dei viaggiatori planetari.

Così, ecco che Isler non ci appare più come un solitario sperimentatore, isolato nel suo cantone svizzero e sottoposto a revisione postuma del giudizio negativo sulle sue architetture capricciose, ma come un ingegnere perfettamente in linea con il suo tempo, maestro della sua generazione, espressione di un processo storico in continua evoluzione.

 

 

Articoli correlati