Artificial Intelligence (AI)

NUOVO ALLARME SULL’IA: ORA I PADRI DELL’HI-TECH PARLANO DI ESTINZIONE DELLA RAZZA UMANA

di Pier Luigi Pisa

Tra i firmatari il creatore di ChatGpt Altman e Hassabis (Google): “Senza regole la specie umana è a rischio

https://www.repubblica.it/esteri/2023/05/31/news/nuovo_allarme_sulla_ia_ora_i_padri_dellhi-tech_parlano_di_estinzione-402579933/


“L’Umanità potrebbe estinguersi per colpa dell’intelligenza artificiale”. Questa volta l’allarme è ancora più esplosivo. Perché arriva direttamente da coloro che hanno acceso la miccia. Sam Altman, CEO di OpenAI, è tra i principali firmatari di una lettera inquietante: “Mitigare il rischio di estinzione per mano dell’AI dovrebbe essere una priorità globale, alla pari di altri rischi su scala sociale come le pandemie e la guerra nucleare”.

Fonte: Repubblica

English translate

Among the signatories are the creator of ChatGpt Altman and Hassabis (Google): "Without rules the human species is at risk".

"Humanity could become extinct due to artificial intelligence." This time the alarm is even more explosive. Because it comes directly from those who lit the fuse. Sam Altman, CEO of OpenAI, is among the main signatories of a disturbing letter: "Mitigating the risk of extinction at the hands of AI should be a global priority, on par with other societal-scale risks such as pandemics and nuclear war".





Umanità a rischio di estinzione per colpa dell’AI. Ancora un nuovo (l’ennesimo) allarme

di Luca Tremolada, 30 Maggio 2023

Tra firmatari gli ad di OpenAI e Google Deepmind e anche Geoffrey Hinton, “padrino” dell’AI

Un nuovo allarme, il terzo in pochi mesi, certamente il più catastrofico. Dopo la lettera del fondatore di Tesla, Elon Musk, che chiedeva all’industria dell’intelligenza artificiale di fermarsi per riflettere e l’avvertimento di Sam Atlman, papà di ChatGpt di andarsene dall’Europa – avvertimento subito rientrato il giorno dopo – arriva l’allarme lanciato da alcuni leader del settore.

Nello specifico, 350 manager hanno firmato una lettera del no profit Center for AI Safety per dirci che l’intelligenza artificiale pone una minaccia esistenziale all’umanità e dovrebbe essere considerata un rischio sociale come le pandemie e le guerre nucleari. Leggiamo meglio: “Mitigare il rischio di estinzione” posto dall’intelligenza artificiale “dovrebbe essere una priorità insieme ad altri rischi sociali come le pandemie e le guerre nucleari”.

Le giravolte di Sam Altman

Fra i firmatari della lettera, riporta il New York Times, ci sono l’amministratore delegato di OpenAI, Sam Altman, il numero uno di Google DeepMind, Demis Hassabis, e il leader di Anthropic, Dario Amodei. E anche Geoffrey Hinton, uno dei padrini dell’AI che si era “licenziato” da Google per avere le mani più libere per avvertire il mondo dei rischi dell’AI.
E forse occorrerebbe partire dai firmatari per contestualizzare questi allarmi. Tra tutti Sam Altman, il papà di ChatGpt, ultimamente è il più allarmato.

Il 29 marzo scorso, commentando la lettera firmata da Elon Musk che chiedeva lo stop allo sviluppo dei chatbot, l’ad di OpenAi si era detta d’accordo ma solo con alcune parti. “Mancano le sfumature tecniche”. E poi, aggiunse, “non era il modo giusto per richiedere migliori linee guida sulla sicurezza”. La settimana scorsa davanti al Senato Usa è tornato sull’argomento paragonando l’Ai all’energia e chiedendo una Aiea (Agenzia internazionale dell’energia atomica) per regolare il settore. Durante un tour in Europa, ha poi dichiarato che OpenAi era pronta ad andarsene dal mercato europeo qualora non dovesse trovare una “quadra” con i regolamenti dell’UE.

Il nodo dei Big e la monetizzazione dell’AI

Ricordiamo, sempre per fornire qualche informazione di contesto, che ad aprile il Garante della privacy italiano aveva bloccato l’accesso a ChatGpt per due settimane chiedendogli di rispettare al legge europea sulla privacy e la gestione dei dati. E che a breve, a giugno, dovrebbe andare in porto l’Ai Act, la Direttiva europea che disciplinerà tutte le forme di Ai per tutti gli Stati del vecchio continente.

La minaccia è durata meno di 24 ore, perché poi Altman avrebbe spiegato di essere stato frainteso dopo un ammonimento da parte del Commissario Thierry Breton, che ha accusato l’azienda di ricatto, Altman ha twittato che “non ci sono piani per andarsene”. Poi il silenzio fino alla lettera di oggi. I maligni scrivono che la richiesta giusta di regole in realtà sottenda la volontà dei big tech di impedire che l’intelligenza artificiale diventi open source, più trasparente e aperta a tutti e quindi più difficile da monetizzare. Come sanno bene i Chatbot, le parole sono importanti. E ogni parola va inserita nel contesto più opportuno.

Fonte: Il Sole 24 Ore

English translate

by Luca Tremolada, 30 May 2023

Among the signatories are the CEOs of OpenAI and Google Deepmind and also Geoffrey Hinton, "godfather" of AI

A new alarm, the third in a few months, certainly the most catastrophic. After the letter from the founder of Tesla, Elon Musk, who asked the artificial intelligence industry to stop and reflect and the warning from Sam Atlman, father of ChatGpt, to leave Europe - a warning immediately returned the next day - here comes the alarm raised by some industry leaders.

Specifically, 350 managers signed a letter from the nonprofit Center for AI Safety to tell us that artificial intelligence poses an existential threat to humanity and should be considered a social risk like pandemics and nuclear wars. Let's read better: “Mitigating the risk of extinction” posed by artificial intelligence “should be a priority together with other social risks such as pandemics and nuclear wars”.

Sam Altman's spins

Among the signatories of the letter, reports the New York Times, are the CEO of OpenAI, Sam Altman, the number one of Google DeepMind, Demis Hassabis, and the leader of Anthropic, Dario Amodei. And also Geoffrey Hinton, one of the godfathers of AI who "resigned" from Google to have freer hands to warn the world of the risks of AI.
And perhaps it would be necessary to start from the signatories to contextualize these alarms. Of all of them, Sam Altman, the father of ChatGpt, has been the most alarmed lately.

Last March 29, commenting on the letter signed by Elon Musk asking for a stop to the development of chatbots, the CEO of OpenAi said she agreed but only with some parts. “The technical nuances are missing.” And then, he added, “it wasn't the right way to ask for better safety guidelines.” Last week in front of the US Senate he returned to the topic by comparing AI to energy and calling for an IAEA (International Atomic Energy Agency) to regulate the sector. During a tour in Europe, he then declared that OpenAi was ready to leave the European market if it did not find a "square" with EU regulations.

The big issue and the monetization of AI

We remind you, again to provide some context information, that in April the Italian Privacy Guarantor blocked access to ChatGpt for two weeks asking it to comply with the European law on privacy and data management. And that soon, in June, the AI ​​Act should be implemented, the European Directive that will regulate all forms of AI for all the states of the old continent.

The threat lasted less than 24 hours, as Altman later explained that he had been misunderstood. After a warning from Commissioner Thierry Breton, who accused the company of blackmail, Altman tweeted that "there are no plans to leave." Then silence until today's letter. The malicious people write that the right request for rules actually underlies the desire of big tech to prevent artificial intelligence from becoming open source, more transparent and open to all and therefore more difficult to monetize. As Chatbots know well, words are important. And every word must be placed in the most appropriate context.



Digital Life L’intelligenza artificiale ci mette a rischio di estinzione

L’intelligenza artificiale rappresenta un pericolo per l’umanità paragonabile a quello di pandemie e guerre nucleari: l’allarme di 350 scienziati.

La specie umana si estinguerà per mano di una sua creazione? Shutterstock
https://www.focus.it/tecnologia/digital-life/intelligenza-artificiale-ci-mette-a-rischio-di-estinzione

“Mitigare i rischi di estinzione causati dall’intelligenza artificiale dovrebbe essere una priorità globale, così come viene fatto per altri rischi su scala sociale come le pandemie e la guerra nucleare”.

Con questo laconico comunicato firmato da 350 scienziati e ingegneri impiegati nel campo dell’IA e pubblicato dalla no-profit Center for AI Safety, i massimi esperti del settore tornano a parlare dei rischi connessi allo sviluppo sempre più avanzato dell’intelligenza artificiale: non più soltanto deep fake e perdita di posti di lavoro, ma addirittura la scomparsa della nostra specie.

NOMI ILLUSTRI. Tra i firmatari della sinistra lettera aperta spiccano i leader delle principali compagnie di IA come Sam Altman, direttore esecutivo di OpenAI, Demis Hassabis, stesso ruolo in Google DeepMind e Dario Amodei, alla guida della startup statunitense di IA Anthropic. Ci sono inoltre Geoffrey Hinton e Yoshua Bengio, vincitori di un Turing Award (l’equivalente del Nobel per gli scienziati informatici) e considerati pionieri dell’intelligenza artificiale per i loro studi fondamentali sulle reti neurali, i modelli per l’elaborazione di informazioni alla base dell’apprendimento nei sistemi di riconoscimento facciale, di guida autonoma e degli assistenti sociali, solo per citare alcuni tipi di IA.

PROGRESSI FUORI CONTROLLO. L’appello, tenuto volutamente stringato per non entrare nello specifico sulle singole minacce e far così aderire il massimo numero di scienziati, si inserisce in un clima di generale preoccupazione per il rapidissimo avanzamento di alcuni tipi di IA, come i modelli linguistici di grandi dimensioni tipo ChatGPT. Si teme che lo sviluppo senza regole dei software usati per questo ed altri chatbot concorrenti possa portare a usare l’intelligenza artificiale per diffondere disinformazione e propaganda, creando disordine nelle istituzioni e disgregazione sociale. 

SITUAZIONE PARADOSSALE. Questi timori spesso espressi dagli scienziati solo privatamente portano gli addetti ai lavori nel campo dell’IA a trovarsi nella scomoda posizione di temere le stesse tecnologie che stanno contribuendo a creare: la paura più grande è quella di sviluppare, in un futuro non troppo lontano, un’intelligenza artificiale forte o generale, capace di apprendere e capire esattamente come un essere umano.

TROPPO INTELLIGENTI PER SOPRAVVIVERE. Quella dell’IA si aggiunge alle altre minacce per la sopravvivenza della nostra specie messe in essere dallo stesso operato dell’uomo, come i cambiamenti climatici, le armi nucleari, o il rischio crescente di pandemie dovuto all’uso sconsiderato delle risorse naturali. Sembra insomma che, qualunque sia il destino che ci attende, la fine debba avvenire per autodistruzione – un bell’autogoal per una specie che si dice intelligente.

ALCUNI PALETTI. Fortunatamente abbiamo nelle mani anche gli strumenti per tutelarci, e sarebbe meglio farlo per tempo. In un post pubblicato di recente, proprio Altman con altri due dirigenti di OpenAI suggerisce alcune strategie per gestire le potenzialità dell’IA in modo responsabile: una cooperazione tra soggetti industriali che operano nel campo, maggiori ricerche sui modelli linguistici e la formazione di un’organizzazione internazionale per la sicurezza dell’IA simile all’Agenzia Internazionale per l’Energia Atomica (AIEA), l’organo che vigila sulla gestione, le applicazioni e la sicurezza nucleare.

Altman si è inoltre espresso a favore di leggi che richiedano ai creatori dei modelli di IA più avanzati di registrarsi per ottenere una licenza all’uso regolamentata dai governi.

Fonte: Focus

English translate

Digital Life Artificial intelligence puts us at risk of extinction

Artificial intelligence represents a danger for humanity comparable to that of pandemics and nuclear wars: the alarm of 350 scientists.

“Mitigating extinction risks caused by artificial intelligence should be a global priority, as is done for other societal-scale risks such as pandemics and nuclear war.”

With this laconic statement signed by 350 scientists and engineers employed in the field of AI and published by the non-profit Center for AI Safety, the top experts in the sector return to talking about the risks associated with the increasingly advanced development of artificial intelligence: no longer only deep fakes and job losses, but even the disappearance of our species.

ILLUSTRIOUS NAMES. Among the signatories of the sinister open letter stand out the leaders of the main AI companies such as Sam Altman, executive director of OpenAI, Demis Hassabis, same role in Google DeepMind and Dario Amodei, at the helm of the US AI startup Anthropic. There are also Geoffrey Hinton and Yoshua Bengio, winners of a Turing Award (the equivalent of the Nobel for computer scientists) and considered pioneers of artificial intelligence for their fundamental studies on neural networks, models for processing information at basis of learning in facial recognition, autonomous driving and social worker systems, to name just a few types of AI.

PROGRESS OUT OF CONTROL. The appeal, deliberately kept brief so as not to go into specifics on individual threats and thus get the maximum number of scientists to join, is part of a climate of general concern for the very rapid advancement of some types of AI, such as large linguistic models type ChatGPT. It is feared that the unregulated development of the software used for this and other competing chatbots could lead to the use of artificial intelligence to spread disinformation and propaganda, creating disorder in institutions and social disintegration.

PARADOXICAL SITUATION. These fears often expressed by scientists only privately lead those working in the field of AI to find themselves in the uncomfortable position of fearing the very technologies they are helping to create: the greatest fear is that of developing, in the not too distant future, a strong or general artificial intelligence, capable of learning and understanding exactly like a human.

TOO SMART TO SURVIVE. That of AI adds to the other threats to the survival of our species posed by man's own actions, such as climate change, nuclear weapons, or the growing risk of pandemics due to the reckless use of natural resources. In short, it seems that, whatever fate awaits us, the end must come through self-destruction – a nice own goal for a species that claims to be intelligent.

SOME STAKES. Fortunately we also have the tools in our hands to protect ourselves, and it would be better to do so in time. In a recently published post, Altman himself, together with two other OpenAI executives, suggests some strategies for managing the potential of AI in a responsible way: cooperation between industrial entities operating in the field, more research on linguistic models and the formation of a international organization for AI safety similar to the International Atomic Energy Agency (IAEA), the body that oversees nuclear management, applications and safety.

Altman has also argued in favor of laws that would require creators of the most advanced AI models to register for a government-regulated license to use them.

Dott. Alessio Brancaccio, tecnico ambientale Università degli Studi di L’Aquila, membro partecipante ordinario Fondazione Michele Scarponi Onlus, ideologo e membro del movimento ambientalista Ultima Generazione appartenente alla Rete Internazionale A22 in contrasto al Cambiamento Climatico in atto

APPLIED DATA SCIENCE – SOCIAL AI: SAVE THE AMAZONAS RAINFOREST WITH ARTIFICIAL INTELLIGENCE AND ALEXANDRA STROHMEIER

High time to act. Can Artificial Intelligence help save the Amazon rainforest?
https://www.hslu.ch/en/lucerne-school-of-business/degree-programmes/master/applied-information-and-data-science/student-experiences/save-the-amazonas-rainforest/

Data Science spotlights sustainability. Data Science is on everyone’s mind – be it in business, medicine or the arts – and can play a key role in solving a range of riddles. That’s why Alexandra Strohmeier, a graduate from our programme, dedicated her Master’s thesis to the topic of how Data Science can help us fight climate change. Or more precisely, how artificial intelligence (AI) can stop the destruction of the Amazon rainforest before it’s too late. Read Alexandra’s article to learn what she found, about ways of beating the clock, and other insights about what the future holds in store. Happy reading!

Alexandra Strohmeier
Former HSLU Applied Data Science student  

Why the rainforest is so important for our future

The ominous consequences of a destroyed and threatened Amazon rainforest are striking not only for the people and animals there but trigger a ripple that affects all of us worldwide. Effect: Chopping down the rainforest accelerates climate change. Cause: Nowhere else are more trees being chopped down than in the Amazon rainforest (Laurence, et al., 2002). The Amazon basin has about 60 percent of the world’s remaining rainforest – and biodiversity will suffer if human activity causes it to shrink further. The logical consequence is that the regional and global climates are thrown off balance. 

The numbers speak clearly for themselves: The latest studies indicate that the rainforest currently emits more CO2 than it binds. In fact, tropical rainforests are known to absorb CO2 and play a key role in the fight against climate change. For example: The Brazilian part of the Amazon region released about 18 percent more CO2 between 2010 and 2019 than it stored. In other words, the Amazon basin released around 16.6 billion tons of CO2 into the environment but absorbed only around 13.9 tons (Thome, 2021, p.1).

AI as both a crystal ball and a protective shield  
AI can add value by helping us identify risk areas in the Amazon rainforest at an early stage and thus find ways to actively counteract deforestation. This is exactly what I tried to study in detail in my Master’s thesis. I developed AI models that can play a mediator role, not only for identifying risk areas but also for visualizing potentially serious detrimental effects and predicting them, for example for the benefit of political parties looking to take preventive measures and protect the areas.

For my research, I asked myself: “How effectively can AI predict deforestation risk areas and to what extent can structured and non-structured data contribute to the overall effect?”
To answer this question, I used various deep-learning algorithms. Deep learning in turn relies on artificial neural networks that enable a computer to learn from historical data. The prerequisite for this is that the computer is “fed” with data. In my case, I used satellite imagery from Sentinel2, an Earth observation satellite of the European Union’s Copernicus program, as well as structured data on population, socio-economic factors, crime and land use.

Predicting deforestation thanks to mixed-data neural networks
Artificial neural networks need a lot of data to ensure reliable classification, and I thus chose the largest possible area for my research, i.e. the entire Brazilian Amazon basin.

I obtained the deforestation data with the help of PRODES (Programa Despoluição de Bacias Hidrográficas), a project of the Brazilian government. I then created a model by using mixed-data neural networks consisting of a coherent combination of several neural networks. Both satellite imagery and structured data can be used simultaneously as input dimensions, so combining different data sources and data types allows for better classification.

I found some examples in my research of how deep-learning models can be used to identify the deforestation of the Amazon rainforest. The substantial difference is that my project identifies the risk areas and doesn’t just focus on deforestation per se. In other words, I focused on areas that are still intact but that could potentially be deforested. 

Procedure: All good things (models in this case) come in threes

The artificial neural networks I created in my project are meant to identify those areas that are at risk of deforestation. At first, whether legal or illegal logging was taking place in the affected areas was not so important. How did I go about this?
I first used two models, namely the convolutional neural network (CNN) and the multilayer perceptron neural network (MLP) to identify the risk areas.

First model: The MLP helped me to process the structured data and use it to predict which areas were at risk of deforestation. 

Second model: The CNN, on the other hand, let me predict deforestation risk based on visual indicators such as satellite imagery. The unique thing here is that these images have a normalized difference vegetation index (NDVI) that measures vegetation. In other words, the CNN shows how many trees grow in a particular area. 

Third model: Finally, I combined the first two models into a single third model. With this multi-input model, which can process different data types, I wanted to achieve higher accuracy and better classification. 

I used the logging data from PRODES for the labelling, which meant defining the risk areas by dividing the region in question into a grid based on the structured and unstructured data I was using. The grid is made up of cuboids corresponding to the size of the individual satellite images. A risk area is subsequently a cuboid in which the model predicts the risk of deforestation. 

Illustration above: Sentinel 2 satellite image with deforestation (left) and without deforestation (right) 

No project without hurdles and challenges
Preparing the data for the structured model was harder than I had anticipated. The challenge was to study the above-mentioned data sets in detail, all of which also contain a geo-component, and to convert them into a relational format.

For this, I converted the data into geopandas data frames that enabled me to aggregate and merge the datasets based on the geography (the cuboids). A tricky step, because some of the relevant data, such as on conflicts, did not have a point in every quadrant in the grid, and I thus had to use another method for those cases. For conflicts, roads, airports and so on, I took the distances into account and calculated how far apart the data points are for each quadrant.

I then assigned the labels “risk area” and “no-risk area” based on the deforestation data. This meant calculating how many square kilometers were deforested in the different quadrants by assigning the label “1” to quadrants with deforestation (risk area) and the label “0” to those without deforestation. 

Results: AI looks into the future

After preparing the data, I divided it into a training data set and a test data set. The training dataset had 33,449 quadrants and the test dataset 11,148 had quadrants.
Modelling the structured data using an MLP had a 75.2% accuracy for the training dataset and a 74.9% accuracy for the test dataset. On the other hand, the visual model with satellite images had an 85% accuracy for the training data set and a 79% accuracy for the test data set. This told me that the unstructured model produced better results. In the course of the experiment, I also frequently noticed some overfitting problems in the unstructured models, a phenomenon whereby a machine learning model excessively adjusts, or “overfits,” to the training data it knows and thus responds poorly to new, unknown data. One way to avoid the overfitting effect is to use large training data sets, for example. 

A Resnet50 architecture enabled me to achieve the best results because it’s a 50-layer-deep model that can be used to train nested neural networks. In other words, I gave the Resnet50 architecture the task to recognize satellite images. I think it did a very good job and produced results quickly.

Mixed-data neural network: Special architecture for more accurate results 
After validating and testing the various models, I combined them into a mixed-data version. Working with mixed-data neural networks requires several specific steps in preparing the data. For example, I had to use the special data generator functions in Keras to enter both data types. Keras is an open-source library for deep learning in Python and helps to create and train neural networks and implements special functions such as data generators, which in turn can feed data into the model. 

I used the following network architecture for the mixed-data neural network with the best performance:

Just what exactly is this architecture all about? 
Figure on the left: Network architecture (detail) Mixed-Data Neural Network
Click here for a large view (PDF)

It contains the ResNet50 model from the CNN and is combined with the MLP. Furthermore, it introduces regularizations. The results of the model show a good line progression without any overfit. Both lines become more accurate in time, with validation loss decreasing steadily. The test is 79.37% accurate; training is 79.38% accurate. 

Illustration above: Mixed-Data Neural Network Accuracy und Loss 

I worked with a Confusion Matrix to help me understand the performance of a model in terms of accuracy, sensitivity, and specificity. I found it to be a useful tool for assessing classification models because it gave me the number of correctly and incorrectly classified examples to decide whether the model needs improvement or is suitable for the given task. 

The confusion matrix above shows that 6,562 values are “true negatives” and 2,287 are “true positives.” It produced only 454 “false negatives” and 1,845 “false positives.” For me, this combined mixed-data model clearly shows that it delivers better results than the isolated MLP and CNN models. 

Illustration above: Confusion Matrix Mixed-Data Neural Network 

The following visualization compares the predicted and true labels and shows that the mixed-data neural network recognizes most risk areas. Only in the northwest region is the density of identified risk areas lower than for the true labels, which means there is still room for improvement. 

Illustration above: True label (left) compared to predictions  

Conclusion: AI can help save the Amazon rainforest 

Visual models like CNN perform better than structured models such as the MLP. This is because already tried-and-tested network architectures such as ResNet50 were used. What I liked the most was that the combination of the different models achieved the most considerable values, thus eliminating the problem of overfitting.

In summary: The accuracy in the mixed data model was 89% for the training data set and 79% for the test data set. I can thus confirm my hypothesis that combining structured and unstructured data helps to make more accurate predictions. With AI’s help, we can anticipate the risk areas in the Amazon basin and consequently protect them from deforestation and destruction.

Outlook: Still some room for improvement

We might be led to conclude that all’s well and good. Having finished my Master’s thesis, however, I’d like to zoom out and summarize my findings as follows: Modelling naturally has its limits. And the data labelling method is not error-free by any means, on the contrary. For example, when it comes to identifying patterns in satellite imagery that could lead to deforestation based on unstructured data, CNN may produce better results.

Furthermore, it would be interesting to learn how different labelling methods affect the model quality. In this case, the model made it hard to predict deforestation, which was not yet visible in the cuboid with a deforestation label. However, I would be very interested to see how the models would change if the images were labelled so as to show deforestation in the individual images. In addition, distinguishing between legal and illegal deforestation would mean a big step forward because we could then classify the latter. And, last but not least, it is certainly important to include further structured data to identify factors other than those already known to be endangering the Amazon rainforest.  

I have already thought a lot about how to proceed with the project. As a first step, I would very much like to publish the project and also make the source code accessible as an open source project. It remains exciting, more about that at a later date. 

We sincerely thank Alexandra Strohmeier for the interesting insights into this fascinating project!

Applied Data Science Professional Portraits & Research Portraits

Shortcuts:
Decision Scientist – Internal Audit Manager/Data Analytics Leader – Data Engineer/Data Scientist – Analyst/Credit Management Office – Data Analyst – Senior Consultant – Specialist Data Analytics – Controlling Professional and Data Science Specialist – Data Science Consultant – Chief Digital Officer – Research Associate – Digital Solutions Engineer – Chief Revenue Officer – Malatec

Programm Information | Contact | Info-Events

Data is the resource of the 21st century. Sign up & join us for a live talk info-event: 
Would you like to learn more about the MSc in Applied Information and Data Science degree programme? Come and visit our information events (online or on-site) and find out more details in a personal conversation with the heads of the programme.

Contact us if you have any questions about our degree programme or for individual advice: Tel.: +41 41 228 42 53 / E-mail: master.ids@hslu.ch

Find more information here:
– Master Programme Info (Home)
– Course structure and modules
– Admission and registration
– Professional portraits & study insights
– Working and studying
– Generalist profile
– FAQ

Interesting facts on the topic Amazonas rainforest

English articles: 
The Guardian: 
– Beauty and destruction: the Amazon rainforest – in pictures
– Tracking Amazon Deforestation from Above
BBC:
Amazon Rainforest: Highest deforestation rate in six years

German articles:
National Geographic:
– Der Amazonas stößt nun mehr Treibhausgase aus, als er absorbiert 
– Rekordwaldbrände im Amazonas: Vorboten der Vernichtung
– Waldverlust: Karte zeigt den schwindenden Amazonas-Regenwald
– Katastrophale Abholzung der Regenwälder schreitet fast ungebremst voran
ZDF Terra X Dokumentation:
– Die klimatische Funktion des Regenwaldes
  (ZDF/TerraXPress/Christiane Mayer/Anna-Lena Neidlinger
  Quelle: https://www.abenteuer-regenwald.de/wissen/folgen)

https://www.linkedin.com/in/alexandra-strohmeier-459aa6194/

Traduzione italiana

Scienza dei dati applicata - AI sociale: salvare la foresta pluviale amazzonica con l'intelligenza artificiale e Alexandra Strohmeier
La scienza dei dati mette in luce la sostenibilità. La scienza dei dati è nella mente di tutti, che si tratti di affari, medicina o arte, e può svolgere un ruolo chiave nella risoluzione di una serie di enigmi. Ecco perché Alexandra Strohmeier, una laureata del nostro programma, ha dedicato la sua tesi di laurea magistrale al tema di come la scienza dei dati può aiutarci a combattere il cambiamento climatico. O più precisamente, come l'intelligenza artificiale (AI) può fermare la distruzione della foresta pluviale amazzonica prima che sia troppo tardi. Leggi l'articolo di Alexandra per scoprire cosa ha scoperto, come battere il tempo e altri approfondimenti su ciò che il futuro ha in serbo. Buona lettura!

Perché la foresta pluviale è così importante per il nostro futuro
Le minacciose conseguenze di una foresta pluviale amazzonica distrutta e minacciata non colpiscono solo le persone e gli animali, ma innescano un'ondata che colpisce tutti noi in tutto il mondo. Effetto: abbattere la foresta pluviale accelera il cambiamento climatico. Causa: in nessun altro luogo vengono abbattuti più alberi che nella foresta pluviale amazzonica (Laurence, et al., 2002). Il bacino amazzonico ha circa il 60 percento della foresta pluviale rimanente del mondo e la biodiversità ne risentirà se l'attività umana la farà restringere ulteriormente. La conseguenza logica è che i climi regionali e globali vengono sbilanciati.

I numeri parlano chiaro: gli ultimi studi indicano che attualmente la foresta pluviale emette più CO2 di quanta ne trattiene. È noto infatti che le foreste pluviali tropicali assorbono CO2 e svolgono un ruolo chiave nella lotta al cambiamento climatico. Ad esempio: la parte brasiliana della regione amazzonica ha rilasciato circa il 18% in più di CO2 tra il 2010 e il 2019 rispetto a quanto immagazzinato. In altre parole, il bacino amazzonico ha rilasciato nell'ambiente circa 16,6 miliardi di tonnellate di CO2 ma ne ha assorbite solo circa 13,9 tonnellate (Thome, 2021, p.1).

Impressioni dalla deforestazione della foresta pluviale amazzonica
AI sia come sfera di cristallo che come scudo protettivo
L'intelligenza artificiale può aggiungere valore aiutandoci a identificare le aree a rischio nella foresta pluviale amazzonica in una fase iniziale e quindi a trovare modi per contrastare attivamente la deforestazione. Questo è esattamente ciò che ho cercato di studiare in dettaglio nella mia tesi di laurea. Ho sviluppato modelli di intelligenza artificiale che possono svolgere un ruolo di mediazione, non solo per identificare le aree a rischio, ma anche per visualizzare gli effetti dannosi potenzialmente gravi e prevederli, ad esempio a beneficio dei partiti politici che cercano di adottare misure preventive e proteggere le aree.

Per la mia ricerca, mi sono chiesto: "Quanto efficacemente l'IA può prevedere le aree a rischio di deforestazione e in che misura i dati strutturati e non strutturati possono contribuire all'effetto complessivo?"
Per rispondere a questa domanda, ho utilizzato vari algoritmi di deep learning. Il deep learning a sua volta si basa su reti neurali artificiali che consentono a un computer di apprendere dai dati storici. Il prerequisito per questo è che il computer sia "alimentato" con i dati. Nel mio caso, ho utilizzato le immagini satellitari di Sentinel2, un satellite di osservazione della Terra del programma Copernicus dell'Unione Europea, oltre a dati strutturati su popolazione, fattori socio-economici, criminalità e uso del territorio.

Previsione della deforestazione grazie a reti neurali a dati misti
Le reti neurali artificiali hanno bisogno di molti dati per garantire una classificazione affidabile, e quindi ho scelto l'area più ampia possibile per la mia ricerca, ovvero l'intero bacino dell'Amazzonia brasiliana.

Ho ottenuto i dati sulla deforestazione con l'aiuto di PRODES (Programa Despoluição de Bacias Hidrográficas), un progetto del governo brasiliano. Ho quindi creato un modello utilizzando reti neurali a dati misti costituite da una combinazione coerente di diverse reti neurali. Sia le immagini satellitari che i dati strutturati possono essere utilizzati contemporaneamente come dimensioni di input, quindi la combinazione di diverse fonti di dati e tipi di dati consente una migliore classificazione.

Ho trovato alcuni esempi nella mia ricerca su come i modelli di deep learning possono essere utilizzati per identificare la deforestazione della foresta pluviale amazzonica. La differenza sostanziale è che il mio progetto identifica le aree a rischio e non si concentra solo sulla deforestazione in sé. In altre parole, mi sono concentrato su aree ancora intatte ma potenzialmente deforestabili.

Procedura: tutte le cose buone (modelli in questo caso) arrivano in tre
Le reti neurali artificiali che ho creato nel mio progetto hanno lo scopo di identificare quelle aree che sono a rischio di deforestazione. All'inizio, il fatto che nelle aree colpite avvenisse un disboscamento legale o illegale non era così importante. Come ho fatto?
Per prima cosa ho utilizzato due modelli, vale a dire la rete neurale convoluzionale (CNN) e la rete neurale perceptron multistrato (MLP) per identificare le aree a rischio.

Primo modello: l'MLP mi ha aiutato a elaborare i dati strutturati e utilizzarli per prevedere quali aree erano a rischio di deforestazione.

Secondo modello: la CNN, d'altra parte, mi permette di prevedere il rischio di deforestazione sulla base di indicatori visivi come le immagini satellitari. La cosa unica qui è che queste immagini hanno un indice di vegetazione differenza normalizzato (NDVI) che misura la vegetazione. In altre parole, la CNN mostra quanti alberi crescono in una determinata area.

Terzo modello: infine, ho unito i primi due modelli in un unico terzo modello. Con questo modello multi-input, in grado di elaborare diversi tipi di dati, volevo ottenere una maggiore precisione e una migliore classificazione.


Ho utilizzato i dati di registrazione di PRODES per l'etichettatura, il che significava definire le aree a rischio suddividendo la regione in questione in una griglia basata sui dati strutturati e non strutturati che stavo utilizzando. La griglia è composta da parallelepipedi corrispondenti alle dimensioni delle singole immagini satellitari. Un'area a rischio è successivamente un parallelepipedo in cui il modello prevede il rischio di deforestazione.

Nessun progetto senza ostacoli e sfide
Preparare i dati per il modello strutturato è stato più difficile di quanto mi aspettassi. La sfida era studiare in dettaglio i suddetti set di dati, che contengono tutti anche una componente geografica, e convertirli in un formato relazionale.

Per questo, ho convertito i dati in frame di dati geopanda che mi hanno permesso di aggregare e unire i set di dati in base alla geografia (i cuboidi). Un passaggio complicato, perché alcuni dei dati rilevanti, come i conflitti, non avevano un punto in ogni quadrante della griglia, e quindi ho dovuto usare un altro metodo per quei casi. Per conflitti, strade, aeroporti e così via, ho preso in considerazione le distanze e ho calcolato quanto sono distanti i punti dati per ogni quadrante.

Ho quindi assegnato le etichette "area a rischio" e "area non a rischio" sulla base dei dati di deforestazione. Ciò ha comportato il calcolo di quanti chilometri quadrati sono stati disboscati nei diversi quadranti assegnando l'etichetta “1” ai quadranti con disboscamento (area a rischio) e l'etichetta “0” a quelli senza disboscamento.

Risultati: l'IA guarda al futuro
Dopo aver preparato i dati, li ho divisi in un set di dati di addestramento e un set di dati di test. Il set di dati di addestramento aveva 33.449 quadranti e il set di dati di test 11.148 aveva quadranti.
La modellazione dei dati strutturati utilizzando un MLP ha avuto un'accuratezza del 75,2% per il set di dati di addestramento e un'accuratezza del 74,9% per il set di dati di test. D'altra parte, il modello visivo con immagini satellitari aveva un'accuratezza dell'85% per il set di dati di addestramento e un'accuratezza del 79% per il set di dati di test. Questo mi ha detto che il modello non strutturato ha prodotto risultati migliori. Nel corso dell'esperimento, ho anche notato spesso alcuni problemi di overfitting nei modelli non strutturati, un fenomeno per cui un modello di machine learning si adatta eccessivamente, o "overfit", ai dati di addestramento che conosce e quindi risponde male a dati nuovi e sconosciuti. Un modo per evitare l'effetto di overfitting è utilizzare, ad esempio, set di dati di addestramento di grandi dimensioni.

Un'architettura Resnet50 mi ha permesso di ottenere i migliori risultati perché è un modello profondo 50 livelli che può essere utilizzato per addestrare reti neurali nidificate. In altre parole, ho affidato all'architettura Resnet50 il compito di riconoscere le immagini satellitari. Penso che abbia fatto un ottimo lavoro e abbia prodotto rapidamente risultati.

Rete neurale a dati misti: architettura speciale per risultati più accurati
Dopo aver convalidato e testato i vari modelli, li ho combinati in una versione a dati misti. Lavorare con reti neurali a dati misti richiede diversi passaggi specifici nella preparazione dei dati. Ad esempio, ho dovuto utilizzare le speciali funzioni del generatore di dati in Keras per inserire entrambi i tipi di dati. Keras è una libreria open source per il deep learning in Python e aiuta a creare e addestrare reti neurali e implementa funzioni speciali come i generatori di dati, che a loro volta possono inserire dati nel modello.

Ho usato la seguente architettura di rete per la rete neurale a dati misti con le migliori prestazioni:
Contiene il modello ResNet50 della CNN ed è combinato con l'MLP. Inoltre, introduce regolarizzazioni. I risultati del modello mostrano una buona progressione di linea senza alcun overfit. Entrambe le linee diventano più accurate nel tempo, con la perdita di convalida in costante diminuzione. Il test è accurato al 79,37%; l'addestramento è accurato al 79,38%.
Ho lavorato con una matrice di confusione per aiutarmi a comprendere le prestazioni di un modello in termini di accuratezza, sensibilità e specificità. L'ho trovato uno strumento utile per valutare i modelli di classificazione perché mi ha fornito il numero di esempi classificati correttamente e in modo errato per decidere se il modello necessita di miglioramenti o è adatto per il compito assegnato.

La matrice di confusione sopra mostra che 6.562 valori sono "veri negativi" e 2.287 sono "veri positivi". Ha prodotto solo 454 "falsi negativi" e 1.845 "falsi positivi". Per me, questo modello combinato di dati misti mostra chiaramente che offre risultati migliori rispetto ai modelli isolati MLP e CNN.
La visualizzazione seguente confronta le etichette previste e reali e mostra che la rete neurale a dati misti riconosce la maggior parte delle aree a rischio. Solo nella regione nord-occidentale la densità delle aree a rischio identificate è inferiore a quella delle vere etichette, il che significa che c'è ancora margine di miglioramento.

Conclusione: l'intelligenza artificiale può aiutare a salvare la foresta pluviale amazzonica
I modelli visivi come la CNN hanno prestazioni migliori rispetto ai modelli strutturati come l'MLP. Questo perché sono state utilizzate architetture di rete già collaudate come ResNet50. Quello che mi è piaciuto di più è che la combinazione dei diversi modelli ha raggiunto i valori più considerevoli, eliminando così il problema dell'overfitting.

In sintesi: l'accuratezza nel modello di dati misti era dell'89% per il set di dati di addestramento e del 79% per il set di dati di test. Posso quindi confermare la mia ipotesi che la combinazione di dati strutturati e non strutturati aiuta a fare previsioni più accurate. Con l'aiuto dell'IA, possiamo anticipare le aree a rischio nel bacino amazzonico e di conseguenza proteggerle dalla deforestazione e dalla distruzione.

Prospettive: ancora margini di miglioramento
Potremmo essere portati a concludere che va tutto bene. Avendo terminato la mia tesi di Master, tuttavia, vorrei rimpicciolire e riassumere le mie scoperte come segue: La modellazione ha naturalmente i suoi limiti. E il metodo di etichettatura dei dati non è affatto privo di errori, al contrario. Ad esempio, quando si tratta di identificare modelli nelle immagini satellitari che potrebbero portare alla deforestazione sulla base di dati non strutturati, la CNN potrebbe produrre risultati migliori.

Inoltre, sarebbe interessante sapere come diversi metodi di etichettatura influenzano la qualità del modello. In questo caso, il modello ha reso difficile prevedere la deforestazione, che non era ancora visibile nel parallelepipedo con un'etichetta di deforestazione. Tuttavia, sarei molto interessato a vedere come cambierebbero i modelli se le immagini fossero etichettate in modo da mostrare la deforestazione nelle singole immagini. Inoltre, distinguere tra deforestazione legale e illegale significherebbe un grande passo avanti perché potremmo quindi classificare quest'ultima. E, ultimo ma non meno importante, è certamente importante includere ulteriori dati strutturati per identificare fattori diversi da quelli già noti per mettere in pericolo la foresta pluviale amazzonica.

Ho già pensato molto a come procedere con il progetto. Come primo passo, mi piacerebbe molto pubblicare il progetto e anche rendere accessibile il codice sorgente come progetto open source. Rimane eccitante, ne parleremo più avanti in un secondo momento.
Ringraziamo di cuore Alexandra Strohmeier per gli interessanti approfondimenti su questo affascinante progetto!

Ritratti professionali di scienza dei dati applicata e ritratti di ricerca
Scorciatoie:
Scienziato delle decisioni - Responsabile dell'audit interno/Capo dell'analisi dei dati - Ingegnere dei dati/Scienziato dei dati - Analista/Ufficio gestione crediti - Analista dei dati - Consulente senior - Specialista dell'analisi dei dati - Professionista del controllo e specialista della scienza dei dati - Consulente della scienza dei dati - Chief Digital Officer - Research Associate - Digital Solutions Engineer - Chief Revenue Officer - Malatec

Informazioni sul programma | Contatto | Info-Eventi
I dati sono la risorsa del 21° secolo. Iscriviti e unisciti a noi per un evento informativo dal vivo:
Vuoi saperne di più sul Corso di Laurea Magistrale in Informazione Applicata e Data Science? Vieni a visitare i nostri eventi informativi (online o in loco) e scopri maggiori dettagli in una conversazione personale con i responsabili del programma.

Contattaci se hai domande sul nostro corso di laurea o per una consulenza individuale: Tel.: +41 41 228 42 53 / E-mail: master.ids@hslu.ch

Trovi maggiori informazioni qui:
- Informazioni sul programma principale (Home)
- Struttura e moduli del corso
- Ammissione e registrazione
- Ritratti professionali e approfondimenti di studio
- Lavorare e studiare
- Profilo generalista
- FAQ

Dott. Alessio Brancaccio, tecnico ambientale Università degli Studi di L’Aquila, ideologo movimento ambientalista Ultima Generazione e membro attivo della Fondazione Michele Scarponi Onlus