<![CDATA[Articoli da puglieseprogettazioni.it dell'Ing. Francesco Pugliese - Articoli]]>Sun, 05 Aug 2018 20:57:41 +0200Weebly<![CDATA[Una mia lettera alla Redazione de "Il Fatto Quotidiano".]]>Mon, 23 Jul 2018 17:57:55 GMThttp://articoli.puglieseprogettazioni.it/articoli/una-mia-lettera-alla-redazione-de-il-fatto-quotidiano     Egregia Redazione de “Il Fatto Quotidiano”,

inizio con il presentarmi: sono un ingegnere elettronico e delle telecomunicazioni, e mi occupo dello studio dell’impatto dei campi elettromagnetici dei sistemi radio ai fini sanitari. Ho voluto specificarlo poiché ritengo di avere qualche titolo per poter parlare di un tema che sta rivestendo – e rivestirà sempre più in maniera esponenziale – un interesse crescente nella popolazione, soprattutto alla luce dei recenti e futuri sviluppi delle tecnologie della radiocomunicazione (valga come esempio la futura tecnologia cellulare 5G).

    Mentre solo un decennio fa questo problema era scarsamente sentito (tanto è vero che passavano in tv addirittura spot con gente entusiasta che assisteva all’installazione di antenne sui campanili), adesso ogni nuovo palo di ripetitore radio viene vissuto da chi abita nelle vicinanze con preoccupazione e diffidenza.

   In tema di effetti sulla salute delle onde elettromagnetiche esiste una vasta letteratura scientifica, nonché innumerevoli norme tecniche e anche molte leggi in materia, ed un atteggiamento serio rispetto a questo problema non dovrebbe prescindere dallo stato delle conoscenze già acquisite ed assodate. Fermo restando il fatto che il progresso della scienza e della tecnica resta sempre in itinere ed è giusto muoversi su princìpi comunque precauzionali, purtroppo ultimamente si sta notando però tutto un fiorire di speculazioni e teorie sul tema della nocività delle onde radio che molto poco hanno a che fare con la serietà scientifica e invece molto con una bassa speculazione sulle paure della gente, tanto più irrazionali quanto più inerenti a qualcosa che con i soli sensi non si vede né si sente.

    Ho dovuto mio malgrado constatare che persino un quotidiano come il vostro ospita spesso improbabili articoli di altrettanto improbabili personaggi, con nessuna qualifica in materia, che vaneggiano di effetti catastrofici, di malattie e morti per le cause più disparate attribuite invece ai sistemi di telecomunicazione, di concetti di rischio e di pericolo usati a vanvera, nonché addirittura di articoli che presentano come reali e funzionanti quelle che sono vere e proprie truffe per allocchi come supposte pietruzze, piantine o dispositivi elettrici vari che dovrebbero proteggere dagli effetti delle onde elettromagnetiche, con tanto di accompagnamento di terminologia pseudo-scientifica di cose che neanche esistono (“energia negativa”, “alchimia cosmo-tellurica sottile” e altre assurdità simili).

   Senza voler parlare dell'ipotizzabile business – in termini di vendita di libri e gadgets vari, tutti assolutamente inutili tranne per chi li vende – che può stare dietro a tutto ciò, l’aspetto senz’altro allarmante di tutto questo è sicuramente il fatto che una esposizione oltre certi limiti alle radiazioni elettromagnetiche artificiali sicuramente può comportare rischi in alcuni casi anche notevoli, ma invece di affrontare la cosa con razionalità scientifica e quindi con efficacia, ad esempio conducendo delle serie misurazioni, campagne di informazione e la messa in opera di contromisure tecnicamente valide (essenzialmente apposite schermature tecniche e/o riconfigurazione delle sorgenti di campo elettromagnetico), molte persone si sentono falsamente rassicurate da questi "rimedi" da stregone e trascurano di fare l'unica cosa che invece potrebbe evidenziare effettivamente una situazione a rischio, ossia indagini tecniche professionali, con il pericolo di permanere in una situazione di rischio vero per la salute.

     Il fatto che molta stampa nazionale, tra cui spiace davvero annoverare il vostro giornale, dia regolarmente spazio a tali mistificazioni e poco o nessuno a veri esperti del settore, lascia senz’altro una spiacevole impressione sia agli addetti ai lavori, sia a chi davvero vorrebbe veder tutelata la salute pubblica in maniera efficace, con informazioni corrette e non con campagne di paura irrazionale e senza la minima validità scientifica.

   Su un articolo pubblicato sul vostro quotidiano si deve addirittura leggere “Non può essere pulito un lavoro che ti fa guadagnare vendendo tecnologie che fanno ammalare la gente” (riferendosi ai sistemi di telecomunicazione) riuscendo in una sola frase ad insultare migliaia di professionisti, di tecnici e di addetti che fanno il loro utilissimo lavoro nel pieno rispetto della legge, nonchè anche il più elementare buonsenso. Mi sia consentito replicare che "non può essere pulito un lavoro che ti fa guadagnare vendendo cose assolutamente inutili alla gente sprovveduta", inducendoli probabilmente anche a tralasciare i possibili rischi reali.

   Una paura generalizzata, irrazionale ed omnipervasiva significa alla fine annacquare ed eliminare la percezione del rischio vero, che invece va affrontato con conoscenze scientifiche consolidate e con strumenti efficaci.

   Auspico sinceramente una vostra maggiore attenzione sul tema ed un più rigoroso vaglio a favore di contenuti che abbiano un minimo di serietà scientifica.

   Grazie per l'attenzione.
]]>
<![CDATA[L’ingegnere dell’informazione: facciamo un po’ di chiarezza su cosa dice la legge sulle sue prerogative.]]>Sat, 30 Jun 2018 15:49:37 GMThttp://articoli.puglieseprogettazioni.it/articoli/lingegnere-dellinformazione-facciamo-un-po-di-chiarezza-su-cosa-dice-la-legge-sulle-sue-prerogativeAll'interno del mondo della professione ingegneristica, e di riflesso anche nel mondo accademico - quando si deve scegliere un percorso di laurea in ingegneria - c’è una zona d’ombra riguardo le prerogative dell’ ingegnere dell’informazione, ossia del professionista che dopo una laurea in ingegneria elettronica, o telecomunicazioni, o informatica, o altre analoghe della stessa classe, e dopo il relativo esame di stato, si iscrive all'Albo degli Ingegneri e precisamente al settore c) (vedremo dopo cosa significa).

Generalmente è opinione tanto 
comune quando arbitraria ed assolutamente infondata che "un ingegnere dell’informazione non firmi nulla", ossia a differenza dei suoi colleghi che si occupano di edilizia o di strade o di macchinari, per chi si occupa di elettronica o telecomunicazioni o informatica invece non c’è un campo o un ambito dove è richiesto un progetto e una firma. Il che è già un assurdo logico, poiché non si capisce come possa esistere una figura che in quanto iscritta ad un albo professionale ha "potere di firma" (come si dice in gergo, ossia il compito esclusivo di firmare dei progetti), ma nello stesso tempo non esiste alcuna categoria di progetti da firmare (!).
Vediamo allora con questo articolo di fare un po’ di chiarezza sulle norme e sulla legge che regola tale materia. Vedremo come la realtà è invece esattamente all'opposto, e che:
  1. esistono numerosissimi ambiti ed attività inerenti i campi dell’elettronica, telecomunicazioni ed informatica dove c’è l’obbligo di redigere un progetto, redatto da soggetto abilitato;
  2. la legge stabilisce che tali progettazioni (in seguito ne elencheremo un po’ più in dettaglio gli ambiti) e altre attività tecniche correlate sono di competenza esclusiva dell’ingegnere dell’Informazione che è quindi l'unico soggetto abilitato.

Prima di procedere, è però indispensabile, per capire bene di cosa si sta parlando, chiarire qualche definizione e fare una premessa.
La premessa è che la normativa italiana circa le attribuzioni delle attività professionali in via esclusiva e riservata, a parte pochi casi specifici, non è né organica né esplicita in tutti i casi, ma si desume da normative fatte in epoche diverse e con finalità diverse, per cui è insensato - ma anche realisticamente difficile - aspettarsi, come pretenderebbero taluni, una tabellina in una sola legge che contempli tutti i casi e tutte le diciture per tutte le professioni. Questo è anche ovvio se si tiene presente il fatto che le professioni coprono un campo amplissimo di attività, che queste attività nascono e si modificano di continuo, e che il legislatore quasi mai riesce a stare al passo con i tempi. Del resto, se molti dubbi e quesiti sull'attribuzione pervengono spesso a contenzioso e sono oggetto di sentenze, ciò si deve proprio a questo stato di cose.
Ciò nonostante, la classica catena della fonte del diritto ( leggi costituzionali - ordinarie - regolamenti - consuetudini) ed il più recente riordino del 2001 in materia di professioni, nonché la schematizzazione data dalle direttive europee, hanno chiarito in maniera esaustiva la materia che ora andiamo a trattare.
Partiamo da alcune definizioni:
  • un ingegnere non è un "semplice" laureato in Ingegneria (a cui spetta il titolo di dottore) ma è un laureato che ha superato l’esame di stato per l’abilitazione alla professione di ingegnere ed è regolarmente iscritto all'Albo degli Ingegneri presso un Ordine provinciale (Legge 24 giugno 1923, n.1935).
  • l'Albo degli Ingegneri è suddiviso in due sezioni ( A e B) a seconda che si tratti di lauree quinquennali (o magistrali) piuttosto che di lauree triennali (a cui compete il titolo di "Ingegnere Iunior") e per entrambe c’è la suddivisione in tre settori: il settore a) attiene all'Ingegneria Civile e Ambientale, il settore b) all'Ingegneria Industriale ed il settore c) all'Ingegneria dell'Informazione.
  • per professione regolamentata si intende una professione che espleta delle attività il cui esercizio è consentito solo a seguito di iscrizione in Ordini o Collegi, subordinatamente al possesso di qualifiche professionali o all'accertamento delle specifiche professionalità. Queste attività, se specificate da una normativa, vengono perciò denominate "attività riservate". Esempi noti a tutti sono le professioni di medico, avvocato, e naturalmente anche ingegnere (senza distinzione di ambiti lavorativi).

​Detto ciò, passiamo ad esaminare un po' più in dettaglio cosa prescrive la legge in questa materia, indicandone i riferimenti puntuali.

Le leggi da considerare sono:
​Anche per l'ingegnere dell'informazione, come è ovvio, si applica la stessa normativa relativa agli altri settori dell'ingegneria, e non c'è niente in più o in meno, circa gli obblighi o le prerogative, che li differenzi dagli altri colleghi ingegneri degli altri settori. In particolare, le leggi sopra elencate stabiliscono unitariamente che il settore c) dell'Informazione, costituisca professione riservata ed, in quanto tale, soggetta ai dettami normativi sulle attività professionali protette.
Nel marzo 2013 anche il CNI (Consiglio Nazionale degli Ingegneri) ha emanato una circolare chiarificatrice sul tema, la n. 194. In tale circolare vengono richiamate le su elencate leggi in vigore e in base ad esse, ribadito quanto segue:
«per quel che riguarda il settore c) dell'informazione, della sezione A dell'Albo, sono di esclusiva spettanza "la pianificazione, la progettazione, lo sviluppo, la direzione lavori, la stima, il collaudo e la gestione di impianti e sistemi elettronici, di automazione e generazione, trasmissione ed elaborazione delle informazioni" (art. 46, comma 1, lett. e), del DPR 328/2001).
Le suddette attività professionali sono quindi riservate per legge agli iscritti all'albo degli Ingegneri e non possono essere esercitate dai soggetti che non sono iscritti all'albo di categoria» .

Riguardo il comma 2 dell'art. 1 del DPR 328/2001 ("Le norme contenute nel presente regolamento non modificano l'ambito stabilito dalla normativa vigente in ordine alle attività attribuite o riservate, in via esclusiva o meno, a ciascuna professione") o l'art. 46 (" Restando immutate le riserve e le attribuzioni già stabilite dalla vigente normativa...") qualcuno vorrebbe interpretarli come una riconferma delle attività riservate se e solo se presenti nei Regi Decreti del 1935 istitutivi la professione di Ingegnere (il che prima che assurdo sarebbe illogico, visto che dati i tempi sono presenti solo compiti di edilizia civile, e dunque non ci sarebbe nessun soggetto titolato a progettare elettrodotti, impianti fotovoltaici, raffinerie, ecc., i quali dunque potrebbero essere progettati da chiunque!). Essi esprimono invece il concetto che le specifiche di quelle attività già attribuite o riservate dalla normativa in vigore non vengono modificate. Questa è l'interpretazione giurisprudenziale corretta e corrente (nonché coerente con tutte le altre norme che altrimenti risulterebbero del tutto contraddittorie), ribadita dal TAR del Lazio nella Sentenza 3757/2012, ossia: solo le normative possono attribuire competenze riservate (in tutto o in parte) ad una data professione, quindi se una determinata attività professionale non risulta attribuita da nessuna norma a nessuna professione essa è da ritenersi libera ed esercitabile nel rispetto del Codice Civile; se invece una attività professionale risulta elencata da una qualsiasi norma, ivi compreso il DPR 328/2001, ed attribuita ad una specifica figura professionale e non ad altre, essa si deve intendere “riserva” di quella professione (cfr. "Sentenza del TAR Lazio 3757/2012: il DPR 328/01 è fonte interpretativa e complementare per la definizione delle competenze professionali").
Il che è perfettamente coerente con la sentenza n° 11545 del 23/03/2012 della Corte di Cassazione a sezioni unite, che ha definitivamente stabilito che "commette il reato di esercizio abusivo della professione il soggetto che svolge attività “tipica e di competenza specifica” della professione regolamentata senza però essere iscritto all'Albo professionale", quindi anche in caso di attività non esplicitamente riservate ma comunque oggetto della professione.
Da ultimo, anche l'Unione Europea ha legiferato per regolare l'accesso alla professioni riservate da parte di soggetti che vogliono esercitare in uno Stato diverso da quello di provenienza, e dunque ha definito quali sono le professioni regolamentate e le relative attività ad esse riservate in ognuno degli Stati membri. Allo scopo nel 2005 è stata emanata la Direttiva 2005/36/EC, che come è noto ha valore di legge.
 Anche qui, coerentemente con la legislazione italiana, la normativa europea definisce attività riservata ("Reserves of activities") la professione di "Ingegnere dell'Informazione" e quella di "Ingegnere dell'Informazione iunior" ed elenca quali sono tali attività (facendo riferimento, per quanto riguarda l'Italia, al citato DPR 328/2001 ed al D.Lgs. 206/2007).
Il tutto è facilmente reperibile sul sito ufficiale dell' Unione:

Chiariti dunque, dilungandoci in dettagli un po' noiosi però necessari, l'ambito di azione e le prerogative della figura dell'ingegnere dell'Informazione (che è l'unico soggetto tecnico abilitato per quanto riguarda la pianificazione, la progettazione, lo sviluppo, la direzione lavori, la stima, il collaudo e la gestione di impianti e sistemi elettronici, di automazione e generazione, trasmissione ed elaborazione delle informazioni) vediamo ora in dettaglio su quali specifiche attività è richiesta obbligatoriamente la sua prestazione professionale.
La legge prescrive con precisione gli ambiti dell'obbligo di progettazione (a cui seguono di solito anche lo sviluppo, la direzione lavori, la stima, il collaudo e la gestione) per impianti e sistemi elettronici suddetti. In particolare le leggi da richiamare sono:
Alla luce della vigente legislazione, dunque, sono da considerare sottoposte ad obbligo di progettazione tutti gli impianti elettronici posti a servizio di edifici pubblici o privati di cui al DM 37/2008 art.1 comma 2 lett b), ossia ad esempio impianti telefonici, cablaggi strutturati, impianti in fibra ottica, impianti di videosorveglianza, data center, impianti di telecomunicazioni wireless LAN e WLAN, Wi-Fi, HiperLAN, ecc. in edifici oltre una certa estensione o potenza elettrica impegnata. Anche qui il CNI ha esemplificato le tipologie di impianti con obbligo di progettazione nella circolare n. 279 dell'ottobre 2013 a cui si rimanda. La progettazione per tali sistemi è sempre obbligatoria nel caso coesista l'obbligo di progettazione dell'impianto elettrico.
L'art.4 della Legge n.847 del 29 settembre 1964 e l'art. 86 comma 3 del citato DM n.37 del 22 gennaio 2008 e s.m.i. stabiliscono invece che sono "opere di urbanizzazione primaria" anche tutti gli impianti di telecomunicazione a servizio pubblico (quindi diffusione radio, TV, telefonia fissa e mobile, Wi-Fi cittadini, ISP, WISP, videosorveglianza pubblica, ecc.) e come tali, soggetti ad obbligo di progettazione da parte di soggetto abilitato.
Il DM n.37 del 22 gennaio 2008 e s.m.i. ("Codice delle Comunicazioni Elettroniche") stabilisce che qualsiasi impianto di telecomunicazione per cui è richiesta la autorizzazione generale, protetti o non protetti - vale a dire con concessione di frequenza o meno - ossia praticamente tutti ad eccezione di quelli privati che sono installati esclusivamente nella propria proprietà (a meno che non superino i limiti dimensionali del già citato DM 37/2008, nel qual caso vige anche per essi obbligo di progettazione) devono essere obbligatoriamente corredati di progetto a firma di soggetto abilitato (art. 107 comma 2).
Riassumendo, si sono puntualmente riportate tutte le norme di legge per cui la prestazione professionale dell'ingegnere dell'informazione è obbligatoria, e come si è visto il suo ambito di esclusiva competenza è tutt'altro che ristretto, spaziando anzi in tantissime tipologie di infrastrutture ed applicazioni.
Ciò nonostante, è un fatto che in Italia tutto ciò molte volte resti solo sulla carta, ed in realtà tantissime infrastrutture ed impianti anche di grandi dimensioni o importanza vengano in effetti realizzati senza regolare progettazione (intendendo qui ogni situazione di irregolarità, dalla mancanza di un progetto vero e proprio fino alla progettazione da parte di soggetto non abilitato per legge). Per non ripetermi in questa sede, rimando alla lettura di un altro mio articolo su come storicamente sia (stato) possibile l'affermarsi di questa situazione paradossale e per certi versi incredibile.
Resta il fatto che la legge non ammette eccezioni culturali, storiche o di convenienza - oltre che l'ignoranza della stessa - e quindi tutto ciò che va contro le leggi è illegale, e costituisce illecito amministrativo e/o illecito penale.
In particolare, in Italia chi esercita una professione riservata senza averne titolo commette il reato di "esercizio abusivo della professione", punito dal codice penale (art. 348). Per gli illeciti amministrativi, le leggi qui già citate (ed altre ancora) prescrivono le sanzioni pecuniarie ed amministrative (sequestro degli impianti, revoca delle licenze ministeriali, ecc.) per tutti i soggetti inadempienti.
Sussiste inoltre ancora l’equivoco che un ingegnere sia - o debba essere - tale solo se esercita la libera professione. Invece l'attività ad egli riservata per legge può essere svolta esclusivamente e solo da chi ne ha titolo, indipendentemente dal regime fiscale o lavorativo o contrattuale. Pertanto una società o una persona giuridica non può firmare un progetto, che deve invece essere redatto sempre da un professionista iscritto all'Albo, come pure ogni altra attività riservata.
Non ha dunque alcuna legittimità la giustificazione, che talvolta si oppone, di chi compie attività riservata agli ingegneri ma che non è iscritto all'Albo "poiché è un dipendente(pubblico o privato)". Siffatto comportamento costituisce comunque esercizio abusivo della professione.
Ricordiamo anche che, per legge, spetta agli Ordini professionali, che sono organi istituzionali sottoposti alla vigilanza del Ministero della Giustizia, "la tutela del titolo e dell’esercizio professionale".
E' dunque importante, direi anzi vitale, per qualsiasi soggetto o società o azienda o amministrazione pubblica, che a qualsiasi titolo si occupi di "impianti e sistemi elettronici, di automazione e generazione, trasmissione ed elaborazione delle informazioni" tenere bene a mente - pena conseguenze anche gravi - che la pianificazione, la progettazione, lo sviluppo, la direzione lavori, la stima, il collaudo e la gestione di tali infrastrutture sono di esclusiva spettanza degli ingegneri dell'Informazione e non - come talvolta erroneamente si crede - direttamente i fornitori degli apparati, installatori, o altri "esperti" individuati in modo arbitrario, se essi non sono in possesso della suddetta abilitazione professionale richiesta dalla legge.
]]>
<![CDATA[Ricerca dell’lstituto Ramazzini sull'impatto dell’esposizione umana ai livelli di radiazioni a radiofrequenza.]]>Thu, 03 May 2018 13:41:45 GMThttp://articoli.puglieseprogettazioni.it/articoli/ricerca-delllstituto-ramazzini-sullimpatto-dellesposizione-umana-ai-livelli-di-radiazioni-a-radiofrequenzaIl 22 marzo scorso si è conclusa la ricerca che l’lstituto Ramazzini di Bologna, attraverso il Centro di ricerca sul cancro “Cesare Maltoni”, ha condotto per studiare l’impatto dell’esposizione umana ai livelli di radiazioni a radiofrequenza prodotti da ripetitori e trasmettitori per la telefonia mobile. A mio avviso, dallo studio emergono molti spunti importanti ma qui ne vorrei sottolineare due:
1) in Italia abbiamo ancora una legislazione sull'inquinamento da campi elettromagnetici molto più cautelativa rispetto agli altri stati europei e agli USA, e dovremmo cercare di tenercela ben stretta;

2) si pone generalmente (e giustamente) molta enfasi alle radiazioni provenienti dalle SRB, ossia dai ripetitori, ma c'è poca consapevolezza del notevole rischio di un uso scorretto dei dispositivi mobili, che essendo più vicini al corpo danno una notevole irradiazione EM (vedo persino tanti bambini usare in continuazione lo smartphone...!).

Lo studio conclude dicendo che "Questi studi sperimentali forniscono prove sufficienti per chiedere la rivalutazione delle conclusioni IARC per quanto riguarda il potenziale cancerogeno delle radiofrequenze nell'uomo".

Clicca sull'icona sottostante per scaricare il pdf della pubblicazione dell'Istituto Ramazzini.
pubblicazione_istituto_ramazzini.pdf
File Size: 982 kb
File Type: pdf
Scarica file

]]>
<![CDATA[Competenze tecniche per ridurre l'esposizione ai campi elettromagnetici.]]>Thu, 22 Mar 2018 15:19:06 GMThttp://articoli.puglieseprogettazioni.it/articoli/competenze-tecniche-per-ridurre-lesposizione-ai-campi-elettromagneticiHo letto la recente intervista che l'ottimo giornalista Giovanni Zucconi ha fatto all'assessore alla tutela dell’ambiente del Comune di Ladispoli.
​Il tema è quello dell’inquinamento elettromagnetico derivante soprattutto da impianti di telecomunicazioni wireless (soprattutto Wi-Fi e telefonia cellulare), anche in strutture pubbliche come le scuole e gli uffici, e di ciò che l’Amministrazione comunale ha in animo di fare per affrontare e ridurre questo problema.
Da questa intervista emergono alcuni punti che, come professionista del settore (mi occupo di progettazione di sistemi a radiofrequenza e di analisi di impatto elettromagnetico) vorrei qui meglio analizzare e commentare per fare una considerazione di tipo generale.
Innanzitutto traspare da parte dell’intervistato una sincera preoccupazione e determinazione per la riduzione del rischio correlato alla esposizione ai campi elettromagnetici. Il principio di minimizzazione è stabilito anche dalla legge e in particolar modo dall' art. 8 Comma 6 della Legge Quadro n° 36 del febbraio 2011“I comuni possono adottare un regolamento per assicurare il corretto insediamento urbanistico e territoriale degli impianti e minimizzare l'esposizione della popolazione ai campi elettromagnetici”. Però allo stesso modo traspare che il modo di descrivere ed affrontare questo argomento è sì molto sentito ma anche molto approssimativo, poco realistico e poco congruente dal punto di vista tecnico. Di conseguenza rischia di essere anche molto poco efficace se si vogliono mettere in campo proposte di soluzioni serie.
Partiamo dalle scuole: ammetto di non conoscere bene quali e in che modo le attività didattiche prevedano il Wi-Fi come componente indispensabile. Immagino però che si usino (a livello utente) dispositivi mobili come smartphones o tablets. C'è poi, immagino, anche l'uso personale. Questo vale anche per gli uffici pubblici. Ebbene, in questo caso se nella struttura in questione (scuola o ufficio) non è presente un sistema Wi-Fi, per funzionare i suddetti dispositivi dovranno usare la rete telefonica cellulare. In ogni caso, sono proprio questi dispositivi la prima fonte di emissioni elettromagnetiche, tanto più “rischiose” in quanto molto vicine (o addirittura a contatto) con il corpo umano, tanto più quando si tratta di minori, e di molto più elevate di un access point Wi-Fi. Quindi “eliminare -o limitare-il Wi-Fi” e basta è certamente un miglioramento ma non serve a molto, servirebbe invece anche vietare (o limitare) l’uso dei dispositivi mobili, e per la connettività usare solo postazioni cablate.
Anche la proposta di “ridistribuire gli access points del Wi-Fi pubblico cittadino e eliminarne un certo numero” non ha senso dal punto di vista dell’inquinamento elettromagnetico: si presume che la progettazione della rete Wi-Fi sia stata fatta con criterio, e dunque ogni zona ha una copertura non sovrapposta, che fa capo ad un’unica rete cittadina. Eliminare degli access points senza lasciare zone scoperte significherebbe riconfigurare i restanti ripetitori con potenze di emissioni maggiori e quindi addirittura con un innalzamento dei valori di campo elettromagnetico nelle vicinanze di questi ultimi.
Buona l’idea di promuovere un piano di localizzazione delle antenne e un monitoraggio del territorio comunale per i campi elettromagnetici, ma circa la volontà di “affidare ad una qualche associazione di volontariato uno studio dell’inquinamento elettromagnetico, magari comprandogli le attrezzature per il monitoraggio”, spiace dire che questa è una idea del tutto strampalata. Prima di tutto perché per analizzare, misurare e valutare i campi elettromagnetici occorre essere degli esperti tecnici del settore ed avere conoscenza dei diversi limiti di esposizione e della relativa legislazione, poi perché le attrezzature sono molto costose (parliamo dell’ordine delle decine di migliaia di euro) e bisogna saperle utilizzare, e in più per avere valore legale devono essere correttamente e periodicamente certificate e calibrate, anche questa una operazione molto costosa.
La mia potrebbe essere interpretata come una orazione “pro domo sua”, ma per fare queste valutazioni o ci si rivolge all' ARPA (che fornisce questi servizi a pagamento, da notare bene) oppure a degli esperti professionisti del settore. La legge non lo prescrive obbligatoriamente (parla di tecnico di comprovata esperienza), ma il suggerimento è quello di affidare la valutazione ad uno studio di ingegneria o ingegnere libero professionista. La legge prescrive invece obbligatoriamente che gli impianti di telecomunicazioni (che sono quelli che emettono i campi elettromagnetici) devono essere progettati da iscritti all'Albo degli Ingegneri e precisamente al settore C (dell’Ingegneria dell’Informazione). Un impianto che mancasse di questa progettazione sarebbe irregolare e soggetto a provvedimenti (amministrativi e anche penali nel caso di esercizio abusivo della professione di Ingegnere).
E' importante notare, del resto, che una progettazione di un impianto di comunicazione a radiofrequenza eseguita correttamente, deve mirare anche alla minimizzazione dell'impatto elettromagnetico ambientale. E' fondamentale dunque che il progettista sia tecnicamente valido oltre che legalmente abilitato.
Ultima cosa circa l’idea di “mettere nel regolamento che le aziende telefoniche debbano lasciare sul territorio un 10-20 % per le campagne informative e di sensibilizzazione sul problema dell’inquinamento elettromagnetico, o per il monitoraggio”: sarebbe semplicemente illegale, poiché il D.Lgs. n. 259/03 (“Codice delle comunicazioni elettroniche”) all'art. 93, vieta di imporre oneri aggiuntivi (rispetto a quelli previsti per legge) agli operatori di telecomunicazioni.
Concludendo, il messaggio principale che qui vorrei dare prendendo spunto dall'articolo citato, è che quello che si nota in tantissimi casi è il fatto che la pur genuina volontà, da parte di alcuni rappresentanti delle pubbliche amministrazioni locali, se non accompagnata da una consulenza tecnica appropriata, è destinata a rimanere lettera morta o, ancor peggio, a dare luogo a iniziative inutili e costose che non risolvono in alcun modo i problemi che si volevano affrontare, ossia il controllo e la minimizzazione dei campi elettromagnetici ambientali.
Per le Pubbliche Amministrazioni, quindi, è indispensabile (ed in alcuni casi obbligatorio, come la progettazione di impianti wireless) ricorrere preventivamente a competenze specifiche professionali che accompagnino le scelte "politiche" con indicazioni tecnico/operative valide per una corretta gestione delle iniziative che si vogliono intraprendere.
]]>
<![CDATA[Il "body rental": dal caporalato delle professioni tecniche al crollo della qualità e redditività della ICT in Italia.]]>Thu, 22 Mar 2018 15:14:54 GMThttp://articoli.puglieseprogettazioni.it/articoli/il-body-rental-dal-caporalato-delle-professioni-tecniche-al-crollo-della-qualita-e-redditivita-della-ict-in-italiaPartiamo da una osservazione: ogni tanto (a dire il vero abbastanza di frequente) appare un articolo su qualche quotidiano nazionale, o anche interventi su social professionali come LinkedIn - per parlare solo di fonti più note - dove si dice che "ci sono molte aziende che vorrebbero assumere del personale qualificato ( tipicamente si parla di professionisti della ICT Information and Communication Tecnology - ad alto livello di istruzione come ingegneri, programmatori, analisti, ecc.) ma che queste persone non si trovano perché il più delle volte si fanno avanti solo profili inadeguati o senza consistente esperienza", oppure - altra variante - "se questa esperienza ce l'hanno non si accontentano di un iniziale (è sempre iniziale ?) stipendio basso ma preferiscono restare disoccupati", ecc.
​Sembrerebbe il tipico scenario dove l'offerta di lavoro è di molto superiore alla domanda, mentre sappiamo tutti che invece la realtà è esattamente e drammaticamente il contrario. Non mettiamo qui in dubbio che questa difficoltà suddetta effettivamente può essere riscontrata (al netto delle menzogne o esagerazioni propagandistiche) in taluni ambiti, ma invece di cercare di individuarne il contesto e le cause, molto spesso a questa segue la conclusione che "in Italia nessuno vuole più lavorare sodo""specialmente i giovani(nella quale categoria in Italia solitamente non si esce che dopo la sessantina) preferiscono tirare a campare alla giornata piuttosto che impegnarsi in un lavoro o mettersi in gioco", ed altre stupidaggini del genere che non dubito risultino anche offensive alle orecchie di milioni di persone in difficoltà per motivi lavorativi.
Cerchiamo invece seriamente di capire meglio il fenomeno, la dinamica che lo origina e poi anche le conseguenze. In particolare vorrei qui approfondire il discorso per quel che riguarda proprio il campo della ICT.
Iniziamo col dire che, se fosse applicata la legge della domanda e dell'offerta, non si riesce a capire cosa non è chiaro del concetto : “se non trovi abbastanza dipendenti, offri più soldi”.
Ma la cose non stanno esattamente così. Chi sono veramente queste aziende che cercano personale esperto e come lo cercano? Non sarà sfuggito a nessuno - e in particolare a coloro che cercano un nuovo o diverso lavoro oppure a chi per ragioni professionali tiene d'occhio l'andamento del mercato - che in Italia, più che altrove, da molti anni è ormai diventato una costante il fatto che le (ormai poche) posizioni lavorative del settore passano quasi tutte attraverso una intermediazione continuativa che può assumere volta per volta diversi nomi: "somministrazione", "consulenza", "body rental" (che, si noti bene, nonostante l'inglesismo è un termine che si usa solo in Italia), o altri parimenti fantasiosi.
Le aziende (in special modo quelle medio/grandi) che decidono di assumere direttamente alle loro dipendenze o anche solo affidare un progetto direttamente a un libero professionista/i sono ormai delle rarità quasi scomparse. Ciò è la diretta conseguenza del sorgere, negli ultimi dieci o quindici anni - di pari passo alle varie riforme legislative in materia di lavoro in Italia, a partire dai primi anni duemila - accanto alle propriamente dette agenzie di "somministrazione del lavoro" (con la prescritta autorizzazione ministeriale, e di solito multinazionali), anche di una miriade di cosiddette "società di consulenza" nel campo della ICT, piccole e grandi; pur in diversi ambiti applicativi - il più delle volte di facciata - in realtà hanno tutte come unico core business quello di reperire e "affittare" alle aziende che ne fanno richiesta (o anche ad altre "società di consulenza", a catena) professionalità anche molto qualificate che andranno fisicamente a lavorare presso i loro clienti (ecco spiegata l'origine del termine "body rental") e che però nella quasi totalità dei casi non faranno mai parte organicamente ed in maniera stabile dell'azienda per cui pur lavorano.
Qui non parliamo dei mediatori (o "recruiters") propriamente detti, i quali dopo aver individuato, selezionato e proposto il professionista alla loro azienda cliente ai fini di un ingaggio diretto, finiscono il loro compito, e quindi non è una interposizione. Anche l’appalto è una ipotesi diversa dall'interposizione: infatti in questo caso viene fornita da un imprenditore o da un professionista un'opera o un servizio, e l’appaltatore si obbliga al suo compimento – a proprio rischio e con organizzazione, lavoro e mezzi propri – in favore dell’appaltante.
Invece, linea generale ed in termini legali, si intende per interposizione nel rapporto di lavoro quella situazione per cui chi si avvale del lavoro altrui, anziché assumere o ingaggiare direttamente il personale di cui ha bisogno per la propria attività, si rivolge ad un terzo soggetto (interposto) che assume e retribuisce manodopera per metterla a sua disposizione.
Quello che vorrei esemplificare in quel che segue dell'articolo, avendo definito l'aspetto formale-legale della interposizione, sono alcune considerazioni riguardanti l'aspetto tecnico-economico ed organizzativo di tale istituto che ha, nel giro di dieci/quindici anni, completamente stravolto la fisionomia della ICT italiana.
Tralasciando gli ovvi vantaggi per le società fornitrici, sono ben intuibili i vantaggi che esso porta alle aziende clienti che decidono di avvalersene:
Principalmente essi sono:
  • possibilità di modulare la forza lavoro in rapporto alle esigenze lavorative sempre più variabili nel tempo: esuberi, trasferimenti, licenziamenti e vertenze vengono completamente eliminati (o meglio, scaricati ad altri) poiché non si tratta di propri dipendenti;
  • semplificazione dei rapporti di collaborazione (per aziende grandi con un sostanzioso numero di collaboratori esterni): invece di gestire contratti singoli per singoli professionisti, ci si interfaccia con una o con poche società "di consulenza", riuscendo a gestire condizioni standard. Si ha così l'idea (o la speranza) di avere un servizio "chiavi in mano";
  • possibilità di artifici contabili/fiscali per classificare come "costi facilmente eliminabili" le spese per "acquistare" lavoro da personale esterno (come fosse un acquisto di una commodity) e nel contempo ridurre i costi fissi alla voce "spesa per il personale".
(Sebbene sia ormai evidente che abbiano un peso notevole, tralasciamo qui altre motivazioni più o meno opache di accordi sottobanco, o servizi e forniture inappropriate o compiacenti, fino ad arrivare a pagamenti di tangenti o prebende, non volendo qui parlare che di aspetti chiari e trasparenti. Non ci nascondiamo però che questi "accordi" hanno un ruolo molto rilevante. A questo proposito consiglio vivamente la lettura di questo illuminante articolo di qualche anno fa ma sempre attuale e a cui rimando).
A fronte di ciò, è acclarato che nonostante questi indubbi vantaggi immediati, a questa estesa e costante pratica di intermediazione è imputata - a parere di innumerevoli esperti e anche per il mio modesto - l'evidente crollo della ICT italiana in termini di redditività e di qualità. Vediamo perché.
Oltre ai suddetti vantaggi, quello su cui vorrei porre l'accento è infatti sugli svantaggi - e soprattutto a chi vanno questi svantaggi - di questa "intermediazione" a volte anche ricorsiva. Non è infatti raro il caso in cui si viene a creare una vera catena di subappalti, con diverse società intermediarie e quindi con clienti di clienti di clienti di.... il che è ragionevole e giusto se ogni anello o pezzo porta un contributo attivo (chi porta clienti, chi porta competenze, chi porta servizi, ecc.) ma assolutamente deleterio se si tratta solamente, come spesso purtroppo accade, di intermediazione parassitaria senza alcun valor aggiunto se non il ritagliarsi una quota di profitto.
Non si vuole qui certo stigmatizzare l'outsourcing in quanto tale, ma solo una determinata maniera di farlo (parassitaria, appunto).Non c'è bisogno di particolare acume nell'individuare come maggiore svantaggiato l'ultimo anello della catena, ossia il professionista dell' ICT che materialmente compie il lavoro ingegneristico o comunque tecnico, tanto che da più parti egli è ormai indicato come il proletario del 21° secolo.
Molto spesso con un contratto a tipologia precaria, in ogni caso con nessuna prospettiva temporale certa o a volte neanche ipotizzabile del suo futuro professionale, di solito non viene fornito di nessuna conoscenza o formazione che non sia strettamente necessaria allo svolgimento del suo compito. Su di lui nessuno investe, a cominciare dal suo cosiddetto datore di lavoro. L'unico investimento in cui questo professionista può sperare è un "auto-investimento", ossia cercare di acquisire durante il suo lavoro il più possibile conoscenze tecniche, e non solo tecniche, per il suo personale bagaglio formativo.
Non senza un certo senso del comico, questi professionisti vengano chiamati - in Italia - "consulenti". Il vero consulente è in realtà colui che viene chiamato dall'esterno a fornire dei mezzi, o conoscenze o un sapere che non ci sono all'interno, in sostanza fa o dice quello che si dovrebbe fare o come lo si dovrebbe fare per avere un risultato, viene pagato (direttamente ed in maniera congrua al lavoro svolto) e va via. Nel meccanismo che abbiamo visto prima, invece, il "consulente (all'italiana)" è inteso come colui che viene chiamato dall'esterno per aiutare a fare il lavoro che già viene fatto all'interno, e che magari all'inizio egli non sa neanche fare ma che gli verrà spiegato, ossia è il suo "cliente" che gli dice cosa deve fare e come; egli lavora stabilmente negli stessi uffici o locali, è soggetto agli stessi orari ed agli stessi - o anche maggiori - obblighi dei dipendenti diretti di quest'ultimo ma senza i corrispondenti diritti, tutele, opportunità o formazione e dunque si ritrova ad essere niente di più che un "dipendente di serie B", per di più eliminabile letteralmente dalla sera alla mattina.
E' l'esatto contrario del vero consulente.
Di solito c'è una differenza sostanziale dal vero consulente anche in termini economici, poiché si ritrova, da buon anello debole, a pagare lo scotto della concatenazione di commesse o appalti dove ogni passaggio trattiene una sua quota consistente, quindi tipicamente alla fine della catena (ossia a lui) arriva ben poco. Un altro aspetto importante è che essendo per definizione via via assegnato ad un progetto che ha un inizio ed una fine, è normale che venga spostato qua e là da un luogo all'altro, da una città all'altra, senza possibilità di scelta e con tutti i disagi conseguenti. E' perfettamente intuibile che il più delle volte questa condizione si traduce in insoddisfazione e senso di precarietà, nessun aggiornamento strutturato, nessuna cultura di appartenenza aziendale propria ma, anzi, marcata spinta a cambiare lavoro il prima possibile.
Fin qui non si è detto niente di nuovo, ed è una situazione ben nota a chi conosce l'ambiente.
Il messaggio principale che però vorrei qui trasmettere è che tutto ciò va a detrimento non di singole persone, ma di un intero settore, essendo ormai un modus operandi quasi universale nella ICT. Questo meccanismo infatti produce sempre più professionisti con competenze solo settoriali e mediamente non elevate, demotivati dal punto di vista lavorativo e remunerativo, e molto motivati invece a spostarsi verso mercati più gratificanti o, specialmente per i più capaci, tipicamente all'estero (dando luogo ormai da anni ad un costante esodo di professionisti esperti dato che, come si diceva all'inizio, in Italia le aziende non assumono più direttamente), e/o addirittura in altri ambiti lavorativi, poichè in genere chi è molto esperto difficilmente accetta compiti e/o compensi sottodimensionati alle sue capacità se ha un minimo di alternativa.
Oppure qualcuno pensa che tutte le migliaia di professionisti del settore che se ne vanno all'estero ogni anno lo fanno perché in Italia non c'è bisogno di infrastrutture ICT e delle relative figure esperte?
Il risultato è che tutto questo ha impoverito e continua ad impoverire notevolmente il panorama ICT italiano in termini di capitale umano.Questo è quindi da tenere bene a mente quando si sente la lamentela "non trovo nessun ....(ingegnere, informatico, tecnico, ecc. a seconda dei casi) competente che vada bene per il mio business".
Tuttavia gli svantaggi non sono solo questi.
Ci sono notevoli svantaggi - a volte molto sottovalutati - anche per l'azienda cosiddetta "cliente"specialmente nel medio-lungo periodo, nonché per i singoli clienti o utenti di queste ultime. Quali sono?
Premesso che per (le poche) posizioni critiche o manageriali, a vario livello, o comunque di una qualche vera rilevanza strategica, le aziende ovviamente assumono direttamente - o si avvalgono di consulenti veri -, anche i consulenti "cosiddetti" spesso si ritrovano a rivestire posizioni o ad eseguire compiti a volte delicati anche se non strategici, tanto più che il metodo dell'outsourcing mediante intermediari, nel campo della ICT, tende ad estendersi ad interi settori o dipartimenti, e si parla non solo di settori accessori e di servizio, ma sovente si tratta dello stesso core business aziendale. Quello che dunque non avviene "in qualità" avviene "in quantità", per così dire.
Avere perciò come "forza motrice" professionisti che per forza di cose (per quello che si è sopra detto, a causa di questa catena - più o meno lunga - di intermediari inutili) sono ad alto rischio di demotivazione e di turn-over elevato, potrebbe essere un punto di debolezza molto pericoloso. Ogni manager sa bene che un turn-over inatteso o eccessivo si riflette disastrosamente sia sui tempi sia sulla qualità di un lavoro o di un progetto. Non parliamo poi dell'entusiasmo o della pro-attività che ci si può aspettare da persone così demotivate. Anche se oggi la "qualità" dei servizi e/o dei prodotti viene ossessivamente esaltata dalle aziende a livello di marketing, sono certo che ad ognuno di noi possono venire in mente innumerevoli esempi di scarsa qualità ed insoddisfazione - come clienti o come utenti - per servizi di ICT come ad esempio telefonia fissa o mobile, reti aziendali, informatica, progettazione di collegamenti, providers di connettività internet, ecc. Affinché questa non sia solo una bandiera sotto cui non c'è nulla, occorre fare in modo di "costruire la qualità" attivamente, non solo di evocarla con gli slogan pubblicitari.
Parlando di qualità, un altro problema non infrequente è che all'interno di aziende poco strutturate o di piccole/medie dimensioni - ma alle volte anche nelle grandi - si hanno notevoli difficoltà ad individuare esattamente di quale tipo di figura professionale si ha bisogno ma ancora peggio non si sa (o si può) valutare con criteri obiettivi i fornitori esterni di tale "competenza", e si fa invece come quelli che chiedono all'oste se il vino è buono. Queste aziende sono le "vittime" ideali preferite delle numerose società di consulenza "all'amatriciana" (ossia che nonostante i paroloni che esibiscono in realtà non hanno altro business che l'intermediazione e che non contengono professionalità strutturate fisse al loro interno, le quali invece vengono reperite in giro volta per volta a seconda delle esigenze e che, nel caso, non si fanno alcuno scrupolo di spacciare ottone per oro, ossia dei neofiti per esperti, delle figure "junior" presentate come "senior" e così via, per tacere di casi addirittura di "consulenti tecnici" con diplomi o lauree umanistiche!) ma che con un sito web accattivante, qualche magazzino eletto a "sede" e qualche commerciale tirato a lustro, si presentano come "leader del settore", salvo poi mettere nei guai anche seri un progetto, un reparto o persino l'azienda cliente stessa nella sua totalità.
L'aspetto tragico della faccenda è che grazie a questa politica, sono tipicamente queste società - sulla spinta dei loro diretti clienti - a fare ormai il prezzo (al ribasso) ed a mettere alle corde il mercato. Ma come ci riescono? Scaricando quasi tutti i rischi di impresa sul loro "dipendente/consulente" di turno nella maniera su descritta poiché lo si gestisce solo amministrativamente presso il cliente, ma senza fornire alcun supporto direttivo, lavorativo, professionale o materiale di alcun tipo, e dunque non avendo alcun onere, responsabilità o rischio aggiuntivo; inoltre, come detto, di solito lo si paga con le classiche "quattro noccioline" ed è quindi facile intuire che con contratti precari e/o con condizioni lavorative così insoddisfacenti, la flessibilità in uscita non costituisce certo un problema. E come si dice molto bene in questo articolo del dott. Marco Regazzo, la cui lettura consiglio caldamente per approfondire questo aspetto, un'azienda di servizi che non ha investimenti, non ha costi di materie prime, non ha software propri e non ha neanche un personale stabile è una scatola vuota, che può portare come unico valore aggiunto (se così si può dire) il fatto che nella rubrica del titolare o di qualche account manager ci sono tutti i numeri di telefono delle persone che probabilmente realizzeranno il servizio.
Abbiamo parlato della sola qualità; parliamo infine anche di costi in rapporto alla qualità che si vorrebbe ottenere, ossia di come sono i servizi o i prodotti forniti dalle società che si avvalgono di questi intermediari : il paradigma dell'intermediazione ha prodotto l'idea della fornitura di prestazioni intellettuali come una commodity, ma non è affatto così. Poiché tutto ha un costo, questa intermediazione, ripetiamo, parassitaria ed ubiquitaria nel settore (ossia di chi non porta alcun valore aggiunto a quello fornito dal proprio o altrui cosiddetto "consulente") globalmente abbassa il livello della qualità per la legge fondamentale dell'economia (ma anche del buon senso) che dice, in soldoni, che
"per chiunque usufruisce di qualcosa che non paga, c'è qualcun'altro che paga qualcosa di cui poi non usufruisce"e questo sfortunato "qualcun'altro", come visto, è spesso l'ultimo anello, inteso questa volta anche come pubblica utenza o clientela generica del committente finale. Detto altrimenti in parole ancora più povere, più su un lavoro da fare ci mangiano in parecchi senza fare nulla, più è naturale che il lavoro fatto e/o il servizio finale elargito saranno insoddisfacenti. Inoltre anche i fornitori virtuosi (ossia con attrezzatura propria e proprio personale competente ed esperto che però in quanto tale va adeguatamente remunerato) saranno costretti ad abbassare i prezzi, i tempi e quindi la qualità, incalzati dalla corsa al ribasso innescata e sostenuta da chi invece può fare prezzi stracciati grazie al meccanismo appena descritto.
In una qualsiasi azienda, soprattutto per quanto riguarda l' ICT, l'abbassamento qualitativo dell' assistenza e del customer care, o dei servizi di manutenzione, o addirittura progettuali, si traduce in disservizi, ritardi, inadempienze contrattuali, cattiva reputazione, fino alla possibile perdita di commesse o di clienti, e quindi di denaro. Questa è una condizione in cui, in Italia, si trovano innumerevoli aziende nella gestione del proprio settore IT ed anche molti system integrators, providers, e persino operatori di telecomunicazioni, e ora sapete il perché e da dove origina almeno uno (se non il principale) dei motivi della sequela infinita di lamentele sui disservizi e scarsa assistenza (basta andare su un qualsiasi forum o social per rendersene conto, se non dovesse bastare la nostra personale esperienza o quella delle persone che conosciamo), e del perché il Digital Divide e i servizi di telecomunicazioni in Italia sono ancora un tema dolente ed in uno stato sempre più miserevole, e ci vedono in forte ritardo rispetto agli altri. Infatti non è certo un caso che l’indice DESI (Digital Economy and Society Index), uno strumento europeo di valutazione delle performance digitali, per lo scorso anno colloca la nostra nazione 25 esima sui 28 dell’UE! (peggio di noi solo Grecia, Bulgaria e Romania).
​In conclusione, da tutto ciò è chiaro che questo sistema di "body rental" o interposizione comunque denominata, favorisce esclusivamente poche figure che ne traggono grande vantaggio, delineandosi come un vero e proprio caporalato delle professioni tecniche, mentre la quasi totalità degli altri soggetti (e i suoi clienti ultimi) e la società in generale ne ha invece, per un motivo o per l'altro, notevole nocumento.
Infatti, come ogni caporalato (il suo più famoso e storico esempio è nel settore agricolo, ma questa piaga si è ormai diffusa in moltissimi ambiti), la sua pratica distrugge la redditività di un settore ed apre la strada al dumping delle remunerazioni e alla dequalificazione del lavoro. Questo meccanismo è ormai il "segreto di Pulcinella" o, se si preferisce, il classico "elefante nella stanza" che ha deteriorato - e sta ancora danneggiando indisturbato - in maniera massiccia il mercato del lavoro nella ICT.
Solo questo genere di sperequazione spiega infatti il motivo per cui le aziende – specialmente medie e grandi - che cercano programmatori, progettisti, direttori lavori, collaudatori e supervisori di reti di telecomunicazioni, wireless (wi-fi, telefonia mobile, ISP, ecc.) o cablate (rame, fibra ottica), invece di assumere personale o di rivolgersi direttamente al mercato dei liberi professionisti, magari della zona (direttamente o mediante gli Ordini provinciali se parliamo di professioni regolamentate come gli ingegneri) o a vere Società di ingegneria, si rivolgono ormai prevalentemente a società di lavoro interinali o di consulenza (che sono praticamente la stessa cosa), le quali forniranno per lo più del personale preso al momento, che neanche esse stesse conoscono, sottopagato e molte volte anche non abilitato(ricordiamoci che ci sono attività riservate per legge agli ingegneri [2]), naturalmente assicurando al cliente esattamente il contrario, e quello che i clienti spendono non va in qualità ma in commissioni e margini; mentre i professionisti del settore garantiscono in genere esperienza e qualità, sono legalmente abilitati e possono anche essere competitivi per quanto riguarda i costi; inoltre essendo liberi professionisti è anche assicurata la flessibilità di impiego, e i soldi andranno a chi lavora e non, per la maggior parte, ad alcuni passacarte.
Urge quindi più che mai una inversione di tendenza che richiede ormai interventi correttivi immediati, incisivi ed urgenti dal punto di vista legislativo ma soprattutto applicativo e di controllo [1] nonché culturale. Per le attività di ingegneria, in particolare, mentre infatti persino per revisionare una caldaia domestica occorre una asseverazione di un tecnico abilitato, per quanto invece concerne la progettazione, pianificazione, lo sviluppo ed il collaudo dei sistemi di telecomunicazioni del valore di milioni di euro e di importanza capitale per l'economia e lo sviluppo della nostra nazione, per via di questo sistema in pratica tutto ciò è in realtà svolto da un gran numero di persone che non hanno - ed a cui nessuno richiede di avere - alcun titolo per poterlo fare, anche se la legge prescrive esattamente il contrario [2]. Il risultato a cui si dovrebbe tendere è invece quello per il quale, fatta salva la necessaria flessibilità per cui bisogna avere strumenti normativi adeguati alle esigenze sia dei lavoratori sia anche delle aziende, (intesi come soggetti produttivi) si arrivi a far sì che anche in Italia queste ultime, in veste di clienti si prendano di nuovo l'onere di interfacciarsi direttamente con i tecnici e professionisti di cui necessita, ed in veste di fornitori rispondere al mercato con le proprie competenze e la propria cultura aziendale, eliminando intermediazioni a valore aggiunto nullo; in altre parole, che tutte le aziende tornino a fare le aziende, e non dei contenitori vuoti. Solo così si potrà innescare quel circolo virtuoso che porta non solo all'innalzamento della remunerabilità del mercato del lavoro (fermando l'emorragia di professionisti qualificati e competenti), ma anche della qualità dei servizi forniti ai clienti e all'utenza in genere, ossia a tutti noi.
Note:
Forse non tutti sanno che:
[1] poiché l'aspetto legale non è tra i fini dell' articolo, in esso volutamente non ho esplicitato - ma lo faccio qui per completezza di informazione - al fatto che in Italia la somministrazione di lavoro - o "body rental" cosiddetto - così come descritta è già formalmente illegale, a meno che non si abbia una autorizzazione ministeriale (D.Lgs 10 settembre 2003, n. 276 e successivi) e in casi stabiliti dalla leggeRecentemente il D.Lgs. 81/2015 ha apportato alcune modifiche rispetto alla formulazione iniziale (la più importante della quale è la depenalizzazione contestualmente all'aumento delle sanzioni pecuniarie) ma l'impianto della legge resta lo stesso: in ogni caso, come spiegato qui"si configura l’intermediazione vietata di manodopera quando al committente è messa a disposizione una prestazione meramente lavorativa, senza il fattore capitale – beni mobili ed immobili –. Ciò anche se l’appaltatore non è una società fittizia, e tuttavia si limita alla gestione amministrativa della posizione relativa al lavoratore, senza che da parte sua ci sia una reale organizzazione della prestazione lavorativa che in realtà viene ad essere affrontata e direzionata dal committente stesso". Anche se il più delle volte questa rimane una "grida manzoniana", quasi sempre aggirata o artatamente elusa, e quindi generalmente ignorata, la sua pratica è e resta illegale e sono previste importanti sanzioni fino a 50 mila euro per ogni lavoratore. Per un compendio aggiornato di approfondimento, che è servito anche da riferimento per questo articolo, si può vedere "Il delitto di caporalato" di Domenico Giannelli, avvocato.
[2] Parlando di ICT, sussiste ancora l’equivoco che un “ingegnere” sia - o debba essere - tale solo se esercita la libera professione. La legge parla invece chiaro: deve essere ingegnere chi svolge attività ad egli riservata per legge (Art. 46 e Art .47 del D.P.R. 328/2001), non solo come libero professionista ma anche come dipendente (di Pubbliche Amministrazioni o di aziende private). Questo è vero anche per l’Ingegneria dell’Informazione. Pertanto la “pianificazione, progettazione, sviluppo, direzione lavori, stima, collaudo e gestione di impianti e sistemi elettronici, di automazione e di generazione, trasmissione ed elaborazione delle informazioni” NON può essere svolta da chi non è ingegnere, indipendentemente dal regime fiscale o lavorativo o contrattuale (Circolare 194/2013 del Consiglio Nazionale degli Ingegneri). Chi lo fa, e anche chi lo organizza o agevola, commette un reato che si chiama “esercizio abusivo della professione”, procedibile d’ufficio e punito dal codice penale (Art. 348). Anche se questo è universalmente ignorato, la legge esiste ed è precisa al riguardo, e dovrebbe essere un altro elemento importante da mettere sulla bilancia nella scelta dei propri collaboratori o fornitori, anche e specialmente per le Pubbliche Amministrazioni, i cui bandi nel settore potrebbero essere impugnati con ricorsi e annullamenti laddove possa essere riscontrato tale illecito.
]]>
<![CDATA["Le onde elettromagnetiche fanno male?"]]>Thu, 22 Mar 2018 15:12:24 GMThttp://articoli.puglieseprogettazioni.it/articoli/le-onde-elettromagnetiche-fanno-maleQuando mi trovo in giro a fare delle misure di campo elettromagnetico, capita alle volte che alcune persone lì intorno, vedendo la strumentazione e saputo cosa sto facendo, mi chiedano “Ma in effetti, queste onde elettromagnetiche fanno male?”
​Di solito, per mancanza di tempo e poiché bisognerebbe fare un discorso troppo lungo e non è certo quella la sede, me la cavo con un “E’ possibile”; mi rendo conto che in realtà è una non-risposta, quindi vorrei qui di seguito fare qualche considerazione un po’ meno sbrigativa.
​Innanzitutto diciamo che la domanda, così come è posta, è mal posta. Non certo per colpa di chi la formula, che di solito non è un esperto del settore, ma perché prima di rispondere bisogna fare diverse premesse che purtroppo riguardano aspetti tecnici imprescindibili per poter dare un minimo di argomentazione che abbia qualche fondamento. Purtroppo, come in molte cose della vita, anche qui la realtà non è tutta bianca o nera, ma per lo più fatta di tante sfumature. Poiché la maggior parte delle persone ovviamente non ama i dettagli troppo tecnici, cercherò di ridurli al minimo dando un taglio molto “divulgativo”.
Chiedere se le onde elettromagnetiche fanno male è un po’ come chiedere se prendere il sole fa male (tra l’altro questa è più di una semplice analogia poiché anche i raggi solari altro non sono che onde elettromagnetiche). In questo caso tutti intuiscono che per diversi tipi ed intensità di esposizione c’è una ampia gamma di possibilità, che va dagli effetti benefici, all’abbronzatura, alla semplice scottatura fino alle ustioni solari o alle patologie tumorali come i melanomi. Inoltre non tutti questi effetti occorrono a tutte le persone esposte in egual misura.
Pensiamo dunque anche ai campi elettromagnetici in generale in questi termini, ossia come ad un agente fisico che a seconda della frequenza e dei livelli di esposizione, e anche delle persone coinvolte, provoca o può provocare diversi effetti biologici e dunque anche sanitari.
Si va dai campi elettromagnetici di origine naturale che sono più o meno innocui, mentre i forti campi elettromagnetici provocano effetti acuti molto severi anche fatali (sappiamo per esempio che nei forni a microonde cuociamo la carne, quindi tessuti biologici). Nel mezzo tra questi estremi stanno tutti gli effetti oggetto delle considerazioni che seguono.
Un altro concetto importante da comprendere è che una misurazione dei campi elettromagnetici ha in prima battuta lo scopo di valutare, dunque di accertare o di escludere, che il livello delle grandezze che si misurano superi i limiti imposti dalla legge. Le considerazioni di tipo sanitario che ne seguono non sono considerazioni ingegneristiche, ma appunto sanitarie (ossia relative a studi di biologia o di medicina). Siccome il limite di legge non è uno solo, ma differisce per tanti aspetti (il contesto della misura, ossia se riguarda un ambiente lavorativo o la popolazione in generale, su che area insiste, su quali tipi di sorgenti di onde elettromagnetiche andiamo ad indagare, ossia di che frequenza, quale è la finalità della misura, ossia se deve essere in banda larga o stretta, se serve per fare una zonizzazione oppure per una conformità, ecc. ecc.) di per sé la misura di un campo elettromagnetico è una operazione tutt’altro che banale, ossia presuppone tutta una serie di conoscenze tecniche e normative oltre che di strumenti molto costosi.
Alla fine della misura, comunque, quello che si può sapere è se i valori superano (e di quanto) o non superano (e di quanto) i limiti di legge.
A loro volta, questi limiti di legge sono stati fissati dalla normativa secondo un certo criterio, con lo scopo di proteggere le persone dai rischi di esposizioni ai campi elettromagnetici. Detto in altri termini: se i valori di campo elettromagnetico misurati sono inferiori a questi limiti, si presume (allo stato attuale) che non ci siano rischi per la salute. Se invece sono superiori, ci potrebbe essere rischio di effetti negativi (danno) alla salute. Il compito della misura è stabilire appunto se tale limite è rispettato o meno. Per accertare ciò, può essere sufficiente fare una sola misura, oppure può essere necessario approfondire l’indagine con più misurazioni di tipo diverso ( a banda stretta, su un intervallo di tempo più ampio, ecc.). Pensiamo, sempre per fare un’analogia, agli accertamenti clinici per stabilire l’origine di un disturbo. Si inizia con esami standard (tipo esami del sangue o ecografia) e se persistono dubbi si passa ad esami via via più complessi - e per questo anche più costosi – (tipo risonanza magnetica, biopsie, ecc).
L’analogia suddetta è esclusivamente di tipo metodologico poiché i campi elettromagnetici che andiamo a misurare sono, a differenza delle malattie, originati esclusivamente da attività umana, e quindi ci sono normative tecniche ben definite (in Italia ci sono le norme CEI, Comitato Elettrotecnico Italiano) che prescrivono dettagliatamente i passi e le metodologie da seguire per arrivare ad una misura certa.
Tutto quello che segue è spiegazione, per così dire, accademica; ossia: spero che nessuno pensi che i legislatori che hanno stabilito i limiti di campo elettromagnetico (attualmente le leggi che li stabiliscono sono essenzialmente il D.M. 8 luglio 2003 per la popolazione e il D.Leg. 81/08 modificato dal D.Leg. 159/2016 per i lavoratori) lo abbiano fatto perché competenti in materia; quasi sicuramente essi ignorano, come tutti i non addetti ai lavori, cosa sia l’induzione magnetica o che significa “Volt su metro”. I limiti sono invece il recepimento (a volte secondo certe soglie precauzionali) di normative europee a loro volta recepimento di linee guida dell’ ICNIRP, ossia International Commission on Non-Ionizing Radiation Protection, in italiano Commissione Internazionale per la Protezione da Radiazioni Non Ionizzanti. Le radiazioni non ionizzanti che qui ci interessano sono appunto le onde elettromagnetiche con frequenza fino a 300 GHz , tra cui ricadono tutte le onde elettromagnetiche per cui si parla di “elettrosmog”, dagli elettrodotti alla telefonia mobile fino ai ponti radio.
E’ appunto questo organismo non governativo, formalmente riconosciuto dall'Organizzazione Mondiale della Sanità, formato da esperti scientifici indipendenti e composto da una commissione principale di 14 membri e 4 commissioni permanenti (sulle aree Epidemiologia, Biologia, Dosimetria e Radiazione Ottica) situato in Germania, che si occupa di ricerca sul tema dei possibili effetti nocivi sul corpo umano dell'esposizione a radiazioni non ionizzanti.
Uno dei compiti più importanti svolto dall'ICNIRP consiste nell'elaborazione di linee guida che raccomandano quei limiti di esposizione per le grandezze elettromagnetiche che non devono essere superati affinché la popolazione esposta non subisca danni alla salute. Sulla base di tali linee guida, periodicamente aggiornate, i singoli stati promulgano le normative sui valori massimi consentiti per dette grandezze elettromagnetiche sul territorio nazionale.
A meno che dunque non si è esperti del settore delle suddette aree di Epidemiologia, Biologia, Dosimetria e Radiazione Ottica, è abbastanza inutile disquisire da un punto di vista medico, ovvero su problematiche circa gli effetti biologici delle radiazioni elettromagnetiche nel caso particolare (ossia detto in soldoni: se, a prescindere dalle misure, un particolare tipo di onda elettromagnetica provoca o non provoca danni alla salute) ed il riferimento per la valutazione degli effetti sanitari dei campi elettromagnetici rimane la loro valutazione strumentale e/o mediante calcoli matematici, volta a stabilire il rispetto della normativa vigente.
Questo non significa che lo stato delle nostre conoscenze in materia è ormai acquisito e dunque immutabile. Al contrario: come prescrive il metodo scientifico classico, non esiste una “verità scientifica” in senso stretto, e il concetto di “dogma” appartiene al campo della fede e non a quello della scienza. Quello che oggi è ritenuto vero, domani potrebbe dimostrarsi falso. E’ su questo assunto che si basa il famoso “principio di precauzione” , tanto più che già in passato si sono avuti esempi di prodotti o tecnologie adottate universalmente che poi si sono rivelate (a volte dopo lungo tempo) altamente nocive: pensiamo, solo per fare due esempi, all’uso dell’amianto o dei raggi X.
E' solo con la costante acquisizione di tutti i dati sanitari ed il monitoraggio diffuso che si riesce a stabilire un nesso di causalità tra un agente fisico ed effetti sanitari nocivi.
E quindi anche per quanto riguarda le onde elettromagnetiche, come anche prescrivono tutte le linee guida delle Organizzazioni di più alto livello come l’OMS e l’ ICNIRP, in tutti i casi occorre monitorare e controllare non solo che i limiti di legge vengano sempre rispettati, in ogni caso ed in ogni situazione, ma anche rilevare ed analizzare ogni elemento nuovo che possa eventualmente spingere a riconsiderare tali limiti a maggior tutela della salute di tutti.
Per chi vuole approfondire, ulteriori informazioni e FAQ possono essere trovate qui.
]]>
<![CDATA[I "Piani Localizzazione Antenne" per i Comuni come unico strumento efficace per la riduzione dell'elettrosmog.]]>Thu, 22 Mar 2018 15:07:55 GMThttp://articoli.puglieseprogettazioni.it/articoli/i-piani-localizzazione-antenne-per-i-comuni-come-unico-strumento-efficace-per-la-riduzione-dellelettrosmogEra il 1997, il GSM stava prendendo piede in Italia e le installazioni di antenne erano in pieno svolgimento. Gli spot pubblicitari mostravano popolazioni entusiaste e parroci che roteavano il berretto per la gioia mentre si montavano le antenne sui campanili....
​Dopo venti anni, altre tecnologie sono seguite e queste scene non sono ipotizzabili neanche con la fantasia più spinta.
E infatti non si fa più la pubblicità con folle festanti per l'installazione di antenne, ma al contrario è sempre più frequente il loro "camuffamento" con finti camini o finti alberi, che però non cambiano il livello dei campi elettromagnetici irradiati.
​Infatti, nonostante l'uso del cellulare sia passato da status symbol a elettronica di consumo di massa, ogni nuova installazione di un antenna telefonica - o di altro tipo - provoca generalmente diffidenza, proteste e anche forti contestazioni nei confronti delle Amministrazioni Pubbliche e degli operatori per timori di effetti nocivi delle onde elettromagnetiche. Ogni giorno sorgono nuovi tralicci, pali o impianti su tetto con antenne di telefonia mobile, ed ogni giorno sorgono proteste degli abitanti della zona che si vedono, nel giro di poche ore, di fronte al balcone o alla finestra, oppure accanto ad una scuola, un grappolo di antenne e di parabole. Nessuna zona è indenne da queste “sorprese”, e domani potrebbe benissimo accadere anche a te che stai leggendo.
Questo tanto più che la richiesta di servizi di connettività è in costante aumento, e con la nuova tecnologia 5G in arrivo e contestualmente, in Italia, con il prossimo avvio di nuovi operatori, questo significa semplicemente più impianti radianti, più antenne e campo elettromagnetico più elevato.
I giornali locali sono pieni di queste notizie, parlando di comitati civici e di amministratori locali che cavalcando le proteste propongono interrogazioni, diffide, accessi agli atti, vagheggiando di regolamenti comunali e distanze di rispetto.
Ebbene, occorrerebbe sapere che nella quasi totalità dei casi tutte queste proteste ed iniziative sono perfettamente inutili. Infatti sono generalmente ignorate due cose che invece è bene sapere:
1 - gli impianti di telecomunicazioni sono considerate dalla legge “opere di urbanizzazione primaria”come una condotta delle fognature oppure una strada. Questo significa che se tecnicamente l’operatore dimostra non c’è altro posto per farle, al limite vi possono anche espropriare il pezzo di terreno o la porzione di fabbricato dove installarli. Più realisticamente, significa che proteste e generici timori non trovano nessuna speranza di essere considerati, e solo argomenti di natura tecnica parimenti solidi possono avere voce in capitolo.
2 - quando l’antenna è stata installata, è quasi impossibile che venga rimossa(ovviamente sempre che la legge sia stata rispettata, sia per quanto riguarda l’aspetto urbanistico sia riguardo l’impatto elettromagnetico). Non esiste più il concetto di distanza di rispetto, aree vietate, e cose del genere, a meno che ciò non rientri in un piano tecnico di localizzazione delle antenne (di cui si dirà oltre). Chi perde tempo a protestare facendo leva su questi concetti o ignora la materia o vuole far perdere tempo deliberatamente.
Infatti il quadro normativo attualmente in vigore (disposizioni in vigore al 13/11/2014) relativamente alle procedure per il rilascio del titolo abilitativo alla installazione di impianti di telecomunicazione risulta piuttosto articolato a seguito delle modifiche/integrazioni del “Codice delle comunicazioni elettroniche” (D.L. 1 agosto 2003, n. 259 e successive modifiche) nel tempo intervenute al fine di introdurre procedure semplificate per alcune tipologie di impianti ed interventi e facilitare lo sviluppo e la diffusione delle telecomunicazioni, conferendo conseguentemente maggiore libertà di azione e di scelta ai gestori di telecomunicazioni.
Ogni anno gli operatori di telecomunicazioni mobili comunicano ufficialmente alle Amministrazioni Comunali se e dove in particolare sono state individuate delle “aree di ricerca”, ovvero aree o punti potenziali candidate ad ospitare una stazione radio base, e quindi un impianto che emette radiazioni elettromagnetiche. Anche nel caso che il Comune non abbia ricevuto i cosiddetti piani di sviluppo della rete da parte dei gestori, con eventuali richieste di nuove installazioni, è sempre possibile che il gestore preveda modifiche ed integrazioni agli apparati già esistenti. Queste modifiche beneficiano di procedure agevolate poiché per la maggior parte delle riconfigurazioni di impianti esistenti l’ARPA regionale si limita ad acquisire le comunicazioni da parte dei gestori, ossia una autocertificazione descrittiva della variazione dimensionale, da inviare contestualmente all’attuazione dell’intervento. Inoltre in questi casi agli operatori è permesso di autocertificare anche il rispetto dei limiti di esposizione ai campi elettromagnetici senza attendere l’autorizzazione dalle ARPA . In aggiunta, gli impianti di potenza fino a 20 W non sono soggetti a parere da parte delle ARPA.
Quando invece viene installato un impianto (palo o traliccio) da zero, o per riconfigurazioni maggiori, il gestore produce una Analisi di Impatto Elettromagnetico (AIE) comprovante il rispetto dei limiti di legge per i valori di campo elettromagnetico, e l’ARPA si limita a prenderne atto e di norma non effettua misure autonome, ma rilascia solo un assenso.
Una cosa fondamentale da considerare circa questo assenso o in generale circa i pareri tecnici forniti delle ARPA regionali, è il fatto che tali pareri non sono sufficienti a garantire il minimo livello di esposizione, ma solo il rispetto dei valori massimi consentiti.
Il principio di minimizzazione invece mira ad individuare soluzioni ed accorgimenti tecnici che, garantendo il servizio di connettività mediante onde radio, persegua anche la minima esposizione possibile della popolazione ai campi elettromagnetici. Questo principio è stabilito anche dalla legge e in particolar modo dall' art. 8 comma 6 della Legge Quadro n° 36 del febbraio 2011“I comuni possono adottare un regolamento per assicurare il corretto insediamento urbanistico e territoriale degli impianti e minimizzare l'esposizione della popolazione ai campi elettromagnetici”. 
La recente giurisprudenza ha infatti evidenziato la sostanziale inutilità di un regolamento comunale che semplicemente individui aree con divieto di installazione senza valutazioni tecniche, e i gestori o operatori si vedono di norma prevalere in eventuali contenziosi con le Amministrazioni Comunali.
Il “Piano di localizzazione antenne”, brevemente detto anche “Piano antenne”, rappresenta quindi l’unica soluzione possibile, stabilita dalla legge, che consente ai Comuni di governare le installazioni degli impianti di telecomunicazione e in particolare di telefonia mobile sul proprio territorio, monitorando la situazione del valore dei campi elettromagnetici in special modo su siti sensibili, e limitando l’impatto elettromagnetico favorendo o preferendo le installazioni su siti ritenuti idonei per realizzare la minimizzazione dell’esposizione e per avere argomenti tecnici validi per eventuali discussioni o contenziosi con gli operatori di telecomunicazioni. Anche le prescrizioni di aree o distanze di rispetto hanno validità solo ed esclusivamente se inquadrate in valutazioni tecniche che non precludano la fattibilità della infrastruttura di telecomunicazione.
Un Piano che consenta ciò deve rispondere ai seguenti requisiti:
  • essere tecnicamente valido, dando risposta alle esigenze di copertura dei gestori e di conseguenza ai bisogni di connettività mobile della popolazione;
  • applicare il criterio di minimizzazione delle esposizioni per la popolazione;
  • essere adottato con un Regolamento comunale che ne disciplini l’applicazione senza creare, con questo, un aggravio di procedura o impedimenti che penalizzino la realizzazione delle reti.
Per avere questi requisiti, è dunque necessario che il piano antenne venga redatto da tecnici qualificati e professionisti esperti in materia, che sono in grado anche di fornire una consulenza specifica ed indispensabile all'Amministrazione comunale per valutare tutto ciò che riguarda l’argomento elettrosmog.
Con un piano della telefonia tecnicamente valido è possibile intercettare gli sviluppi della rete e programmarne l’ottimale localizzazione, proponendo e giustificando eventuali localizzazioni alternative che garantiscono copertura dei servizi di telefonia, unico requisito tecnico da assicurare al gestore. Sono infatti numerose le sentenze che affermano che il Comune non è tenuto a garantire la migliore localizzazione in termini di profitto per l’operatore (che è invece il principale criterio che detta le scelte realizzative di quest’ultimo).
In mancanza di questo strumento tecnico, il Comune (e con esso la sua popolazione) non ha alcuno strumento valido da poter contrapporre alle scelte e decisioni prese dai gestori o operatori, ed ogni altra iniziativa estemporanea e non accompagnata da motivazioni tecniche (proteste, diffide, ricorsi, ecc) è destinata al fallimento o addirittura a non essere nemmeno presa in considerazione.
Generalmente parlando, è in effetti inutile demonizzare a priori le tecnologie wireless e le relative infrastrutture, poiché se da un lato è perfettamente lecito il principio di prudenza ed il timore di effetti nocivi dei campi elettromagnetici emessi, dall'altra è pur vero che quasi tutti utilizziamo dispositivi come telefoni cellulari, tablets, smartphones, ecc., che fanno uso di queste tecnologie, e la semplice protesta non eliminerà certo le onde elettromagnetiche e resta il fatto che le antenne vanno pur messe da qualche parte. Va dunque cercato un corretto approccio per soddisfare le esigenze di connettività ma nella piena tutela della salute. Per far questo, dunque, occorrono provvedimenti ed azioni congruenti ed efficaci, che consistono essenzialmente in un monitoraggio con misure professionali del livello di campo elettromagnetico e l'adozione di regolamenti validi per governare al meglio il proliferare degli impianti che li emettono ossia, a livello comunale, il suddetto Piano Antenne.
Poiché come tutte le leggi ed i regolamenti, un piano antenne non può essere retroattivo, è infine facilmente intuibile che tanto più tardi il Comune si dota di questo strumento, tanto più difficile risulterà il controllo e l’indirizzo che l’Amministrazione Comunale potrà dare alla gestione ed alla installazione degli impianti di telecomunicazioni che emettono onde elettromagnetiche.
Come considerazione finale, dunque, si può dire che gli amministratori comunali che davvero vogliono governare e dare risposte alle giuste richieste dei propri amministrati rispetto al tema dell’esposizione ai campi elettromagnetici, invece di aspettare proteste e lamentele, devono invece muoversi in anticipo, il più presto possibile, dotandosi del know-how e degli strumenti adatti che si sono fin qui descritti, e quindi di un piano antenna e di una consulenza specialistica in materia. Da parte della popolazione in generale, invece, occorrerebbe non aspettare che un’antenna spunti improvvisamente davanti casa per poi porsi il problema, ma fare pressione e sollecitare fortemente i propri amministratori a prendere l’iniziativa per dotare il proprio Comune al più presto possibile di un Piano Antenne valido, anche collettivamente. Sarebbe questo sì l'unico scopo utile - a differenza di proteste tardive - di un comitato cittadino.
]]>
<![CDATA[Lancio preliminare di General Motors delle comunicazioni V2V per raggiungere la massa critica di veicoli automatizzati.]]>Thu, 22 Mar 2018 14:42:15 GMThttp://articoli.puglieseprogettazioni.it/articoli/lancio-preliminare-di-general-motors-delle-comunicazioni-v2v-per-raggiungere-la-massa-critica-di-veicoli-automatizzatidi Sam Abuelsamid, Senior Research Analyst at NAVIGANT
Quella che segue è la (mia) traduzione in italiano di un articolo molto interessante apparso su Forbes qualche giorno fa. L'autore, il Dr. Sam Abuelsamid, è un ingegnere, ricercatore ed analista nonchè gestore del Podcast Wheel Bearings, che riguarda alcuni dei temi più interessanti nel mondo automobilistico e dei trasporti.
L'articolo fa il punto della situazione negli USA circa l'attuale strategia delle principali case automobilistiche circa l'implementazione delle tecnologie di comunicazione Veicolo-Veicolo (V2V, ossia Vehicle-to-Veichle) o anche Veicolo-Infrastruttura (V2I, ossia Veichle-to-Infrastructure, dove per Infrastruttura si intende qualunque dispositivo esterno non a bordo del veicolo che è atto a raccogliere e/o inviare informazioni dal/al veicolo stesso). Considerate nel loro insieme, queste sono usualmente indicate come tecnologie V2X e rappresentano uno dei campi applicativi più promettenti ed innovativi delle telecomunicazioni. L'imminente lancio del 5G per quanto riguarda le comunicazioni mobili potrà portate ulteriore slancio allo sviluppo ed alla diffusione di queste tecnologie.
Le note in corsivo tra parentesi [... ] sono mie.
Non è un segreto che la General Motors insieme a numerosi altri fabbricanti d'automobili sono stati sostenitori di lunga data della tecnologia V2V. Case automobilistiche, fornitori e autorità di regolamentazione hanno lavorato insieme per la maggior parte degli ultimi dieci anni per stabilire gli standard con i quali i veicoli dovrebbero comunicare in modo sicuro l’uno con l'altro, con i pedoni, i ciclisti e le infrastrutture in tempo reale. L'obiettivo iniziale della proposta di uno standard federale di sicurezza dei veicoli a motore (FMVSS) è stato quello di imporre che i nuovi veicoli abbiano la capacità di trasmettere e ricevere messaggi di base per la sicurezza stradale per 10 volte al secondo e fornire avvisi ai conducenti per migliorare la loro consapevolezza della situazione.
Poiché la maggior parte dei veicoli ancora non avranno capacità di automazione per molti anni a venire, le regole sono state fatte solo per richiedere degli allarmi, anche se la tecnologia è in grado di essere utilizzata per molto di più. Ad esempio, la Toyota in realtà ha lanciato un sistema V2V su diversi modelli sul mercato giapponese alla fine del 2015. Una delle funzioni abilitate da tale sistema è l’ Adaptive Cruise Control (ACC). I sistemi ACC che sono disponibili sul mercato oggi utilizzano un sensore radar per misurare la distanza e la velocità rispetto al veicolo che precede.
Il guidatore imposta una velocità desiderata, che il sistema tenta di mantenere. Tuttavia, se il radar rileva che il veicolo che precede sta rallentando, l’ ACC frena automaticamente il veicolo per mantenere una distanza costante. Poichè un sistema reattivo agisce dopo che il sensore rileva ciò accade, questo può talvolta portare ad un controllo più brusco di quello che il conducente avrebbe trovato confortevole, specialmente se il veicolo davanti si trova a frenare improvvisamente per un ostacolo. Anche se il controllo basato su sensori reagisce più velocemente di un essere umano, ci sono ancora ritardi nella catena degli eventi. La tecnologia V2V permette al veicolo di testa di trasmettere ciò che sta per accadere prima che l'azione possa essere rilevata, impiegando frazioni di secondo fuori della catena (degli eventi), il che può fare la differenza a velocità autostradale.
[ad esempio: la macchina davanti rileva un ostacolo che richiede una frenata, il suo sistema V2V invia questa informazione al veicolo che segue in modo che il suo sistema di controllo possa intervenire prima che i sensori rilevino l'ostacolo o la frenata del veicolo di testa]
Cadillac sta lanciando una tecnologia V2V con 3 avvisi disponibili provenienti da veicoli fino a 300 metri lungo la strada. Il guidatore otterrà un avviso se c'è un veicolo che ha le sue luci di emergenza accese, che attiva il suo controllo di stabilità (che indica un fondo stradale scivoloso) o il conducente frena improvvisamente per evitare un ostacolo.
La tecnologia basata sul Wi-Fi attualmente utilizzato per le comunicazioni V2V è conosciuta come DSRC (Dedicated Short-Range Communications) e negli Stati Uniti usa la banda dei 5.9 GHz dedicata a questo scopo dalla FCC verso la fine degli anni 1990. Tuttavia, nei due anni e mezzo da quando la National Highway Traffic Safety Administration(NHTSA) ha emesso il preavviso di proposta di regolamentazione, vi è stata una intensa attività di lobbying da parte dell'industria wireless e via cavo per ottenere di usare parte della banda per servizi a pagamento Queste industrie hanno a lungo lamentato il fatto che la banda era inutilizzata dal settore auto.
[I sistemi DSRC in Europa, Giappone e Stati Uniti non sono compatibili e comprendono alcune variazioni molto significative , come diversa banda di frequenza e.m., diverse velocità di trasmissione, e diversi protocolli]
La tecnologia V2V crea reti ad-hoc “on the fly” (autoconfiguranti) che non richiedono l’utilizzo di una rete di trasporto e non hanno nessun costo di servizi aggiuntivi ad essi associati. Coordinata dal Congresso, la FCC sta ancora cercando di stabilire se la banda a 5.9 GHz può essere condivisa senza degradare i potenziali benefici per la sicurezza delle comunicazioni V2V. Nel frattempo, GM ha deciso che era il momento di iniziare a mettere in campo le automobili per utilizzare tale spettro. Il CTS è stato uno dei modelli con più piccolo volume di vendite di GM nel 2016, con meno di 16.000 vendite, pari a solo lo 0,5% del totale delle vendite della società. Con così poche vendite, le probabilità di incontrare in un prossimo futuro un'altra macchina per connettersi reciprocamente sono estremamente piccole, ma questo è solo l'inizio.
Il lancio delle comunicazioni V2V coincide con il debutto del sistema di infotainment CUE della prossima generazione di Cadillac CTS. Mentre GM non ha ancora confermato alcuna espansione della capacità V2V, la casa automobilistica ha confermato che i modelli ATS e XTS avranno il nuovo sistema CUE quando la produzione di modelli del 2018 inizierà alla fine di quest'anno e sembra probabile che l'aggiornamento dell’elettronica porterà il V2V ad essere equipaggiata anche in quei modelli. In effetti, ciò sarà probabilmente aggiunto ad ogni nuovo modello di Cadillac in quando questi verranno aggiornati nei prossimi due anni.
Anche se ogni Cadillac supporta la tecnologia V2V, ciò rappresenta ancora solo il 5,6% delle vendite del 2016 negli Stati Uniti di GM e poche possibilità a breve termine di implementare eventuali allarmi alla guida. Il nuovo sistema CUE include il supporto per gli aggiornamenti “over-the-air” che possono includere nuove applicazioni per le comunicazioni V2V. Le versioni di prossima generazione dei brand di infotainment “MyLink” e “Intellilink”utilizzate su Chevrolet, Buick e modelli GMC deriveranno probabilmente dalla piattaforma CUE con funzionalità simili. In combinazione con i sistemi avanzati di assistenza alla guida che sono sempre più disponibili attraverso l'intera linea di prodotti, probabilmente vedremo l'integrazione di avvisi di allarmi da tecnologie V2V con opzioni come frenata di emergenza automatica e l’ ACC nei prossimi anni.
GM si sta anche muovendo in maniera aggressiva per sviluppare la sua tecnologia di guida automatica e ci si aspetta di iniziare la distribuzione pilota di veicoli elettrici automatizzati Chevrolet Bolt EVs con il sistema Lyft nel prossimo anno. Mentre i sensori tra cui radar, lidar, telecamere e ultrasuoni formeranno il nucleo dello sistema di percezione automatizzato, le comunicazioni V2V probabilmente giocheranno un ruolo importante nell'espansione della consapevolezza della situazione del veicolo al di là della linea di vista possibile con quei sensori.
Proprio le comunicazioni V2V hanno permesso a Toyota a migliorare il controllo del suo sistema ACC; l’ aggiunta di questo livello di connettività a sistemi automatici di livello più alto ha il potenziale per migliorare notevolmente l'esperienza del passeggero. Una delle lamentele principali che i passeggeri hanno sui taxi tradizionali è che i guidatori fanno manovre brusche per tutto il tempo, portando il cliente ad una spiacevole esperienza.
Un servizio di corsa automatico che si basa solo sui dati dei sensori è tale da offrire una simile esperienza, soprattutto in ambiente urbano dove tutto è molto più vicino e la situazione può cambiare rapidamente. Un veicolo in questo ambiente è probabile che possa vedere, con i suoi sensori, molti ostacoli vicini a cui reagire, ma l'aggiunta di una tecnologia V2V può espandere la portata e consentire all’automazione di pianificare in anticipo un controllo agevole.
Anche in assenza di un obbligo federale per le comunicazioni V2V, molto probabilmente GM non sarà l'unica casa automobilistica ad implementare questa tecnologia. Nel 2016, Toyota ha collaborato con il Transportation Research Institute dell'Università del Michigan per espandere una distribuzione pilota, chiamata Ann Arbor, di tecnologie V2V e comunicazioni veicolo-infrastruttura. Con la sua esperienza in Giappone e il sostegno del programma Ann Arbor, è probabile che il lancio in produzione della tecnologia avvenga anche in breve tempo. Anche Honda è un forte sostenitore delle comunicazioni V2X ed è probabile che in ciò si unisca a GM e Toyota a breve.

Vendite annuali di veicoli commerciali leggeri annuali con tecnologia V2X, World Markets 2016-2025, (fonte: Navigant Research)
Navigant Research prevede che, dopo una crescita iniziale lenta nei restanti anni di questo decennio, le vendite globali di veicoli con comunicazione V2X basate sulla tecnologia DSRC interesserà 70 milioni di veicoli verso la metà degli anni 2020 con altri 15 milioni di veicoli che utilizzano anche la tecnologia cellulare 5G per connettività V2X. A questi tassi di crescita previsti, quasi un quarto dei veicoli su strada in Nord America si prevede saranno dotati di questa tecnologia di connessione entro il 2023.
Dato che nello stesso periodo si prevede di iniziare una distribuzione commerciale più ampia di veicoli automatizzati, ci dovrebbero essere su strada un numero sufficiente di veicoli connessi per fare effettivamente la differenza nell'impatto di questa tecnologia. Al fine di ottenere questi risultati, aziende come GM hanno bisogno di iniziare a implementare questa tecnologia già da oggi, che è esattamente ciò che stanno facendo.
]]>
<![CDATA[Tecnologie per il futuro delle telecomunicazioni]]>Thu, 22 Mar 2018 14:32:45 GMThttp://articoli.puglieseprogettazioni.it/articoli/tecnologie-per-il-futuro-delle-telecomunicazioniPromosso dalla Facoltà di Ingegneria dell’Università di Firenze nell'ambito delle celebrazioni per il bicentenario della nascita di Antonio Meucci, nel giugno del 2008 si è tenuto un interessante convegno dal titolo "Il futuro delle telecomunicazioni". A distanza di quasi dieci anni, ritengo interessante fare il punto della situazione riprendendo gli spunti di quelle che già allora erano emerse come nuove tendenze e prospettive in questo campo.
​Per far ciò vorrei partire dall’intervento dal titolo “Tecnologie abilitanti per il futuro delle Telecomunicazioni” che nel sullodato convegno era stato tenuto dal Prof. Giancarlo Prati, Direttore dell’Istituto di Tecnologie della Comunicazione, dell’Informazione e della Percezione (TeCIP) della Scuola Superiore Sant’Anna di Pisa nonché Professore ordinario di Telecomunicazioni presso la stessa Scuola. Il prof. Prati è stato anche, presso l’Università di Parma, il professore di Comunicazioni Elettriche del sottoscritto.
Già dieci anni fa era emersa, come tendenza principale nel campo della ITC, la elaborazione ed integrazione di tecnologie facili da usare, disponibili a buon mercato, ma atte ad offrire applicazioni e servizi nuovi che siano sicuri, affidabili ed adattabili alle esigenze dell’utilizzatore.
Sin dal 1856, anno della costruzione del primo telefono di Meucci, le telecomunicazioni sono diventate sempre più parte integrante e fondamentale della vita di tutti, sia nelle applicazioni quotidiane delle singole persone sia nella organizzazione della intera società, che è stata, è, e sarà continuamente modificata dall’evolversi delle nuove tecnologie e possibilità in questo campo.
 Vediamo allora di vedere un po’ più in dettaglio quali tecnologie si erano già profilate all’orizzonte per l’ ICT già nel primo decennio degli anni duemila. La principale novità che possiamo segnalare è il fatto che nuovi contributi verranno sempre più da altri campi ed ambiti di conoscenza come la fisica, biotecnologie, scienze della vita e dei materiali organici e le nanotecnologie.
In particolare già da allora ed ancora oggi grande enfasi viene sempre più data al fatto che l’evolversi della ICT coinciderà sempre più con espansione della rete di interconnessione, sia in termini capacitiva sia in termini di dimensioni. Ci sarà ossia un cambiamento dal “tutti in rete” al “tutto in rete” ( non solo telefoni e pc, ma anche sensori, attuatori, robot, automobili, ecc.)
In questo “tutto in rete” ci sono dei capisaldi, che possono essere individuati, in un ordine che va dalle applicazioni individuali a quelle collettive e di impresa , sotto un duplice punto di vista: come sistema o come tecnologia pura. Parlando di sistemi, già nel suddetto intervento si elencavano quattro macro-punti:
  1. reti ubiquitarie autoconfiguranti
  2. sistemi embedded
  3. cybersbazio (visto come la dimensione immateriale che mette in comunicazione i computer o i dispositivi di tutto il mondo in un'unica rete)
  4. acquisizione delle informazioni dal web (ricerca semantica)
Dal punto di vista tecnologico, invece, si rimarcavano ancora le principali tecnologie che sembrano promettere, in una prospettiva futura, una notevole innovazione tecnologica se non addirittura un cambio di paradigma tecnologico:
  1. Nanoelettronica
  2. Fotonica
  3. Nanosistemi integrati / miniaturizzati
Vediamo di approfondire un po’ meglio questi punti e la relazione tra nuove tecnologie e nuovi sistemi.
“Integrare” è infatti ancora la parola d’ordine nel futuro della ICT, ossia assemblare principi diversi di discipline eterogenee per ottenere sistemi a valore aggiunto rispetto ai singoli ambiti. Pensiamo, ad esempio, alle cosiddette “body networks” realizzate attraverso dispositivi indossabili, per la raccolta e l’uso di dati biometrici, o ad applicazioni di domotica, la “casa in rete”, che si autogestisce e usa infrastrutture intelligenti in rete in molti ambiti di vita quotidiana.
Un capitolo molto promettente (che dieci anni fa era appena abbozzato) sono attualmente le comunicazioni veicolo-veicolo o veicolo infrastruttura. Ossia le comunicazioni V2v (Vehicle to Vehicle) e V2I (Veichle to Infrastructure), che sono alla base dei sistemi di trasporto intelligenti (ITS). Questi sono solo sottoinsiemi o, se vogliamo, possono essere visti come particolari ambiti di tutto ciò che ricade nella ormai cosiddetta IoT, Internet of Things, ossia il “tutto in rete” visto prima.
Per realizzare tutto ciò, sono allo studio, oltre a nuove applicazioni delle tecnologie già esistenti e commercialmente disponibili, anche nuove e futuribili tecnologie che permetteranno una maggiore e diversa implementazione dei sistemi su accennati. Quali sono dunque le tecnologie future più promettenti in questo senso? Qui faremo una rapida carrellata prendendo come spunto l’intervento del prof. Prati al suddetto convegno.
Possiamo dunque dare un elenco:
  1. Fotonica digitale e sul silicio
  2. Microsensori
  3. Metamateriali
  4. Plasmonica
  5. Fotoni accoppiati
  6. Nanotubi di carbonio
  7. Transistors di grafene
  8. Elettronica flessibile sia per transistors organici sia per memorie di plastica
 Vediamo un po' più in dettaglio:
Fotonica digitale: è ormai la tecnologia ponte tra il presente e il prossimo secolo. Si passerà dalle attuali trasmissioni in fibre ottiche e dalla gestione analogica del segnale fotonico alla elaborazione di bit ottici basati su tecniche digitali. Fondamentali in questo senso la realizzazione di memorie ottiche (che permetteranno di supplire a una carenza fondamentale in questo settore) e l’individuazioni di tecnologie a basso costo (punto debole della fotonica). Si parla di Silicon Fotonics: la fotonica entrerà sempre più nella ICT ma non è (ancora) a basso costo come l’elettronica. L’ elettronica è infatti basata sul silicio (che è un materiale economico e disponibile); si cerca dunque un analogo del silicio che vada bene per la fotonica. Se le funzioni ottiche si potessero realizzare con il silicio ci sarebbe un enorme vantaggio, ma purtroppo il silicio non è sfruttabile appieno in questo senso. La ricerca mondiale si sta muovendo massivamente verso un opportuno trattamento che possa rendere il silicio più adatto agli scopi e alle funzioni della fotonica. Lo scopo è raggiungere una compatibilità della stessa tecnologia per entrambe le applicazioni elettroniche e fotoniche, per es, su uno stesso chip.
Microsensori o smart dust: si tratta di realizzare minuscoli sensori ambientali che colloquiano tramite collegamenti wireless o ottici , aventi dimensioni sub-millimetrici che racchiudono sensori, microprocessori, moduli di trasmissione, batteria, ecc. Qui siamo ancora nel campo delle ipotesi di fattibilità commerciale.

Metamateriali: composizioni di materiali esistenti che realizzate con architetture tridimensionali o bidimensionali posseggono proprietà elettromagnetiche che nessun materiale originale possiede ( es, particolari griglie di rame, o fibre ottiche con sezione forata in un certo modo, cristalli con patterns fotolitografati, ecc). Ci sono già esperimenti applicativi riguardo l' ICT, come il pilotaggio di radioonde.

Plasmonica: un punto che rallenta lo sviluppo dalla ICT è il disadattamento tra dimensioni degli apparati e capacità di trasmissione: i sistemi fotonici hanno capacità di trasmissione elevatissime ma dimensioni abbastanza ingombranti, mentre i sistemi elettronici possono avere dimensioni ridottissime ma capacità trasmissive più limitate. Le due tecnologie sono difficili a combinarsi insieme in un unico circuito. Una tecnologia che metta insieme questi due aspetti potrebbe essere la plasmonica, ossia l’utilizzo di plasma ionizzato. La luce sembra stimolare particolari strisce metalliche con plasma superficiale ad emettere elettroni superficiali (plasmoni) che poi sono in grado di muovesi lungo queste strisce. Così un segnale luminoso si trasferisce sugli elettroni/plasmoni. I plasmoni però hanno vita molto breve e questo è un problema.

Fotoni accoppiati: questo effetto si basa su teorie quantistiche applicate su due fotoni correlati. Se per esempio uno dei due fotoni ha uno spin, l’altro avrà spin opposto a qualunque distanza esso si trovi dal primo fotone. Questo fenomeno è studiato non per la trasmissione di informazioni istantanee (che contraddirebbe la teoria della relatività) bensì per cosiddette crittografie quantistiche: due soggetti, collegati da un canale trasmissivo ordinario, condividono una chiave generata casualmente, non trasmessa ma concordata, che permette al canale convenzionale di criptare la trasmissione in modo sicuro e inviolabile.

Nanotubi di carbonio: sono delle molecole di carbonio in forma cilindrica con diametro di pochi manometri ma lunghi anche centimetri. Questi nanotubi possono essere utilizzati per fare transistors o anche nano-emettitori di onde radio (ossia radio di dimensioni molecolari).

Transistor di grafene: anche il grafene (che è una forma allotropica di carbonio) potrebbe essere utilizzato per fare dei transistors praticamente bidimensionali, ciò ne farebbe transistors che supportano frequenze dell’ordine dei THz, ossia molto più veloci degli attuali transistors. Ci sono grosse difficoltà poiché il carbonio non è un semiconduttore, ricerche sono in corso per modificare opportunamente la sua struttura di bande energetiche. Tutto ciò è però ancora ampiamente al di là della utilizzabilità pratica attuale.

Elettronica flessibile: l’idea è di realizzare circuiti integrati elettronici su supporti organici (polimeri), anche mediante serigrafia con speciali inchiostri.L’idea non è nuova ma ancora non ci sono applicazioni tangibili. Ci sono anche allo studio tecniche per sviluppare delle memorie con celle fatte di polimeri con particelle di metallo (oro) annegate.

​In conclusione di questa breve carrellata molto sommaria, si può dire che l’impressione è quella di essere dunque all’alba di tutta una serie di nuove tecnologie, ma è nell’ordine delle cose che alcune di esse potranno non avere un futuro applicativo, mentre da altre potranno scaturire tutta una serie di applicazioni che potranno anche produrre un “technological breakthrough” nella ICT.

]]>
<![CDATA[Per le telecomunicazioni la progettazione non è un optional, ma è obbligatoria.]]>Thu, 22 Mar 2018 13:00:47 GMThttp://articoli.puglieseprogettazioni.it/articoli/per-le-telecomunicazioni-la-progettazione-non-e-un-optional-ma-e-obbligatoriaMentre è universalmente noto e pacifico che per la costruzione di un edificio o per la costruzione di una condotta del gas è necessaria ed obbligatoria una progettazione tecnica da parte di soggetti abilitati, ossia iscritti ad Albi professionali degli Ingegneri o Architetti e nessuno si sognerebbe di costruire un palazzo senza un progetto, per motivi abbastanza inspiegabili – in realtà vedremo più avanti che la spiegazione c’è – ancora è del tutto (di)sconosciuto l’obbligo di progettazione anche per i sistemi riguardanti l’Ingegneria dell’Informazione, ossia sistemi informatici e di telecomunicazioni.
L​a realizzazione di cablaggi strutturati, impianti telefonici, di videosorveglianza, reti wireless, ponti radio, impianti in fibra ottica, e molte alte tipologie di infrastrutture ICT (Information and Communication Technologies), molto spesso vengono realizzate, sia per utenti privati sia per committenti pubblici, da installatori o persino dai diretti interessati senza che venga redatto alcun progetto, o anche con un qualche progetto ma compilato da soggetti che non hanno l’abilitazione prescritta per poterlo fare.
Invece anche la pianificazione, la progettazione, lo sviluppo, la direzione lavori, la stima, il collaudo e la gestione di impianti e sistemi elettronici, di automazione e di generazione, trasmissione ed elaborazione delle informazioni sono di esclusiva spettanza degli iscritti alla sezione c) dell’ Albo degli Ingegneri (D.M. 37/2008).
Nonostante la legge sia molto precisa al riguardo ( oltre al succitato D.M. 37/2008, si vedano D.Leg. 163/2006, legge n.4 del 14/01/2013, DPR n. 137 del 07/08/2012) e anche diverse circolari del CNI – Consiglio Nazionale degli Ingegneri – ( Circ. N.279, Circ. n. 194) abbiano chiarificato e specificato tale obbligo, regna invece incontrastata la pratica del “fai da te” non solo per le installazioni di piccole dimensioni o di limitata importanza, ma incredibilmente anche per opere, pubbliche e private, di grandi dimensioni e di grande rilevanza.

Le conseguenze di questo fatto possono essere molto rilevanti.

La errata convinzione, da parte dei committenti, che non occorra un progetto per realizzare un collegamento radio o una rete cablata, discende anche dalla sottovalutazione delle conseguenze che una realizzazione non corretta di tali infrastrutture può comportare circa la irregolarità dell’opera. Chi invece realizza o progetta queste opere senza averne titolo, sottovaluta le conseguenze anche penali del proprio operato.
Nel campo delle telecomunicazioni in particolare, il Codice delle Comunicazioni elettroniche (D.Lgs. 1 agosto 2003, n.259 s.m.i. ) è la norma di maggior rilievo giuridico/economico, affiancata però da altre norme prescrittive.
Il suddetto Codice prescrive, all'art. 107, che "per conseguire un'autorizzazione generale (...), il soggetto interessato e' tenuto a presentare al Ministero una dichiarazione acclusa la domanda di concessione dei diritti d'uso di frequenza, corredata di progetto tecnico del collegamento da realizzare, redatto in conformità alle normative tecniche vigenti, finalizzato all'uso ottimale dello spettro radio con particolare riferimento, fra l'altro, alle aree di copertura, alla potenza massima irradiata, alla larghezza di banda di canale, al numero di ripetitori; il progetto, sottoscritto da soggetto abilitato (...) deve contenere una descrizione tecnica particolareggiata del sistema che si intende gestire".
La realizzazione di sistemi di telecomunicazioni, in special modo realizzati mediante “dielettrico non confinato” o, in parole più povere, onde radio, per ovvi motivi è infatti soggetta a tutta una serie di regimi autorizzativi in considerazione della scarsità della risorsa radio, maggior tasso di conflittualità potenziale fra soggetti aventi gli stessi diritti ed operanti nello stesso spazio fisico e tutta l’annessa problematica della sicurezza delle comunicazioni.
Oltre all'aspetto progettuale più squisitamente tecnico, l’aspetto autorizzativo è parte integrante e ineludibile del processo di progettazione e non dovrebbe essere ignorato. Il progettista deve affrontare la questione progettuale munito di conoscenze interdisciplinari, che gli consentano un approccio completo alle istanze del suo cliente (sui piani tecnico, giuridico ed economico). L’esperienza ha mostrato che talvolta questo non accade, in special modo quando in violazione alle norme addirittura non viene redatto alcun progetto o ne viene redatto uno da personale non abilitato e non competente; per cui il realizzatore o l’installatore si trasforma da "consulente" o "pseudo-progettista" in involontario creatore o suggeritore di violazioni amministrative, cioè procuratore di danni al proprio cliente (il quale rimane il destinatario delle eventuali sanzioni anche importanti). Ciò premesso, per valutare se sia necessario o meno acquisire un’autorizzazione ministeriale e per conoscerne l’eventuale forma ed estensione, occorre considerare attentamente alcuni elementi di natura tecnico-giuridica.
Infatti, per l’aspetto dell’estensione giuridica, il Codice specifica che l’autorizzazione abilita il soggetto all'installazione ed all'esercizio delle apparecchiature e/o delle reti per uso privato (art.99) od alla fornitura di reti e/o servizi a destinazione pubblica (art.25).
Per quanto attiene la necessità o meno dell’autorizzazione, occorre considerare contestualmente tre elementi, ossia la natura dell’attività di comunicazione, il luogo in cui avviene la comunicazione e la natura del mezzo trasmissivo utilizzato. Inoltre a seconda dei sistemi e delle relative frequenze utilizzate, si adotta un ben determinato regime autorizzativo. Inoltre come ben noto, l'uso di determinate frequenze è soggetto a concessione sotto licenza da parte del Ministero competente.
Un approccio non corretto e una mancata progettazione espone dunque la realizzazione non solo a possibili lacune dal punto di vista tecnico-funzionale (con tutto quello che ne comporta) ma anche a possibili problemi legali ed autorizzativi. Come del resto per qualsiasi opera che richieda - per legge - autorizzazioni, licenze e progetti.
(Nella fattispecie, in caso di violazione delle norme per le reti / servizi ad uso pubblico è prevista l’applicazione dell’art.98 del Codice, mentre per le reti ad uso privato gli articoli da applicare sono il 102 e 103. Ad esempio, nel caso di reti / servizi pubblici gestiti in assenza di autorizzazione è prevista una sanzione pecuniaria da un minimo di € 15.000 ad un massimo di € 2.500.000 da stabilirsi in equo rapporto alla gravità del fatto, oltre ovviamente alla diffida dal proseguire l’attività. Per i soggetti che non dovessero ottemperare alla diffida è prevista una sanzione pecuniaria da un minimo di € 120.000 ad un massimo di € 2.500.000 da stabilirsi in equo rapporto alla gravità del fatto. Nel caso analogo di rete ad uso privato gestita in assenza di autorizzazione, la sanzione pecuniaria è compresa fra un minimo di € 300 ad un massimo di € 3.000, oltre al pagamento dei contributi evasi. E’ prevista anche la disattivazione e suggello della rete ad opera del Ministero ed a spese del trasgressore).

Ma come si è resa possibile una situazione del genere?

Gli Ordini degli Ingegneri, nati nel lontano 1923 e poi sviluppatesi via via nel tempo con fini e compiti stabiliti dalla legge, storicamente si sono condensati attorno ad un nucleo storico di professionalità legate al settore civile prima ed impiantistico poi. Per forza di cose l'attenzione dunque si è sempre riversata su questo tipo di attività. Anche se l'Ingegneria dell' Informazione ormai da molto tempo non può chiamarsi una disciplina "nuova", la legislazione per molto tempo ha stentato ad andare al passo con lo sviluppo di questo settore, e solo da una decina di anni a questa parte o poco più le normative hanno incluso - e sempre più includeranno, per forza di cose - anche quest'ultima nelle regole e norme della professione ingegneristica.
Inoltre questo ha fornito a lungo tempo buon gioco ad un "fai da te" da parte di tutti e quindi una occasione di operare ed espandersi in un settore che si crede - o si finge di credere - deregolamentato.
Questa la situazione attuale; ma la musica sta - seppur lentamente - cambiando e cambierà sempre di più.
Intanto, si sta concentrando l'attenzione sui bandi pubblici che per realizzazioni di sistemi ICT non prevedono un progetto redatto da un iscritto all'Albo di competenza, e per questo molti sono stati poi impugnati ed annullati, e recentemente gli Ordini provinciali degli Ingegneri (che ricordiamo non sono dei sindacati di categoria ma enti di diritto pubblico vigilati dal Ministero della Giustizia che hanno il compito della tutela non solo della professione, ma anche dei cittadini e dell'ambiente) si stanno sempre più attivando presso tutte le sedi competenti per richiamare formalmente all'osservanza delle su elencate norme di legge (qui e qui solo due esempi, ma molti altri Ordini provinciali hanno fatto e stanno facendo lo stesso). Gli Ordini hanno anche l’obbligo di denunciare all'Autorità giudiziaria i casi di esercizio abusivo della professione, ossia quei casi dove è stata condotta una attività riservata agli Ingegneri da soggetti invece non iscritti all'Albo.
Infatti è bene tenere a mente che le professioni riservate sono tali in tutti gli ambiti, pubblico ma anche privato. Del resto nessun pensa che la costruzione di un ospedale dovrebbe essere progettata mentre quella di una casa privata essere lasciata alla competenza del proprietario o del suo muratore.
Se da una parte l'impressione che talvolta si coglie è che queste norme (come tutte le norme prescrittive, dall'obbligo di revisione di una caldaia all'obbligo di progettazione di una rete cablata) sono in un certo qual modo meramente protezionistiche di una qualche categoria, è solo perché non si percepisce l'importanza del funzionamento, nel mondo odierno, delle tecnologie dell' Informazione, da cui dipendono fortemente tutte le altre. Ci si accorge di questo solo quando il sistema va in black-out e si fermano le ferrovie, i collegamenti telefonici, internet non funziona in ufficio o a casa, l'aereo non parte o atterra in ritardo o ha problemi, la videosorveglianza è andata in tilt, ecc. ecc. Mentre il crollo di un edificio o un cavalcavia progettato male rende immediatamente presente a tutti le conseguenze di un difetto (di progettazione, manutenzione, o altro), non altrettanto evidenti - almeno all'occhio delle persone comuni - sono percepite le conseguenze di un malfunzionamento o difetto nei sistemi di telecomunicazioni o informatica, che possono portare ad altrettanti disastri.
Come dunque in qualità cittadini noi pretendiamo che chi ci cura deve essere un medico abilitato e non un praticone, dobbiamo pretendere che anche chi progetta un ponte, una casa o un collegamento radio di una segnalazione ferroviaria, deve essere un ingegnere abilitato e non un sedicente "esperto".
]]>