Παρασκευή 15 Μαρτίου 2024

Η τεχνητή νοημοσύνη αποτελεί απειλή για τον πλανήτη μας, αλλά όχι αυτή που ίσως νομίζετε

9 Ιαν, 2024 
Η τεχνητή νοημοσύνη αποτελεί απειλή για τον πλανήτη μας, αλλά όχι αυτή που ίσως νομίζετε
Η ενέργεια που απαιτείται για τη λειτουργία τσιπ υψηλής επεξεργασίας και συστημάτων ψύξης καθιστά την τεχνητή νοημοσύνη όπως το πετρέλαιο - προσοδοφόρα για τον άνθρωπο, αλλά με περιβαλλοντικό κόστος

Ακόμη και όταν η ανθρωπότητα αγκαλιάζει με ανυπομονησία την τεχνητή νοημοσύνη παρά τις επιφυλάξεις στο ακαδημαϊκό μέτωπο και στο μέτωπο της ασφάλειας, η πείνα της τεχνητής νοημοσύνης για ενέργεια και το αποτύπωμα άνθρακα προκαλούν αυξανόμενη ανησυχία. Η τεχνητή νοημοσύνη συγκρίνεται συχνά με τα ορυκτά καύσιμα. Το πετρέλαιο, αφού εξορυχθεί και διυλιστεί, είναι ένα προσοδοφόρο εμπόρευμα. και όπως το πετρέλαιο, η τεχνητή νοημοσύνη έχει μεγάλο περιβαλλοντικό αντίκτυπο που έχει εκπλήξει πολλούς.

Ένα άρθρο στο MIT Technology Review αναφέρει ότι ο κύκλος ζωής για την εκπαίδευση κοινών μεγάλων μοντέλων AI έχει σημαντικό περιβαλλοντικό αντίκτυπο, αναφέροντας ότι «ολόκληρη η διαδικασία μπορεί να εκπέμψει περισσότερα από 626.000 κιλά ισοδύναμου διοξειδίου του άνθρακα - σχεδόν πέντε φορές τις εκπομπές καθ 'όλη τη διάρκεια ζωής του μέσου αμερικανικού αυτοκινήτου (και αυτό περιλαμβάνει την κατασκευή του ίδιου του αυτοκινήτου)».

Ένα ερευνητικό άρθρο του Alex de Vries της VU Amsterdam School of Business and Economics εγείρει επίσης ανησυχίες σχετικά με την κατανάλωση ηλεκτρικής ενέργειας από την επιταχυνόμενη ανάπτυξη στον υπολογισμό και τις πιθανές περιβαλλοντικές επιπτώσεις της τεχνητής νοημοσύνης και των κέντρων δεδομένων. "Τα τελευταία χρόνια, η κατανάλωση ηλεκτρικής ενέργειας στα κέντρα δεδομένων αντιπροσώπευε ένα σχετικά σταθερό 1% της παγκόσμιας χρήσης ηλεκτρικής ενέργειας, εξαιρουμένης της εξόρυξης κρυπτονομισμάτων", λέει ο de Vries.
Πώς λειτουργούν τα κέντρα δεδομένων AI
Μια μελέτη του MIT λέει ότι πριν από μια δεκαετία, «τα περισσότερα μοντέλα NLP (Natural Language Processing) θα μπορούσαν να εκπαιδευτούν και να αναπτυχθούν σε φορητό υπολογιστή ή διακομιστή εμπορευμάτων». Ωστόσο, τα κέντρα δεδομένων AI απαιτούν πλέον πολλαπλές περιπτώσεις εξειδικευμένου υλικού, όπως μονάδες επεξεργασίας γραφικών (GPU) ή μονάδες επεξεργασίας τανυστή (TPU).

«Ο στόχος ενός μεγάλου γλωσσικού μοντέλου είναι να μαντέψει τι έρχεται στη συνέχεια σε ένα σώμα κειμένου», λέει ένα άρθρο από το Columbia Climate School. «Για να επιτευχθεί αυτό, πρέπει πρώτα να εκπαιδευτεί. Η εκπαίδευση περιλαμβάνει την έκθεση του μοντέλου σε τεράστιες ποσότητες δεδομένων (πιθανώς εκατοντάδες δισεκατομμύρια λέξεις) που μπορούν να προέλθουν από το διαδίκτυο, βιβλία, άρθρα, κοινωνικά μέσα και εξειδικευμένα σύνολα δεδομένων.
Αυτή η εκπαιδευτική διαδικασία διαρκεί εβδομάδες ή μήνες, κατά τη διάρκεια των οποίων ένα μοντέλο AI υπολογίζει πώς να εκτελεί συγκεκριμένες εργασίες με ακρίβεια ζυγίζοντας διαφορετικά σύνολα δεδομένων.
Αρχικά, το μοντέλο AI κάνει τυχαίες εικασίες για να βρει τη σωστή λύση. Αλλά με τη συνεχή εκπαίδευση, εντοπίζει όλο και περισσότερα μοτίβα και σχέσεις στα δεδομένα δεδομένα για να αποφέρει ακριβή και σχετικά αποτελέσματα.
Οι πρόοδοι στις τεχνικές και το υλικό για την εκπαίδευση νευρωνικών δικτύων τα τελευταία χρόνια έχουν επιτρέψει "εντυπωσιακές βελτιώσεις ακρίβειας σε πολλές θεμελιώδεις εργασίες NLP".
«Ως αποτέλεσμα, η εκπαίδευση ενός μοντέλου τελευταίας τεχνολογίας απαιτεί τώρα σημαντικούς υπολογιστικούς πόρους που απαιτούν σημαντική ενέργεια, μαζί με το σχετικό οικονομικό και περιβαλλοντικό κόστος», προσθέτει η μελέτη του MIT.
Ζήτηση [απαίτηση] ενέργειας κέντρου δεδομένων AI και αποτύπωμα άνθρακα
Η ταχεία επέκταση και η μεγάλης κλίμακας εφαρμογή της τεχνητής νοημοσύνης το 2022 και το 2023 μετά την κυκλοφορία του ChatGPT της OpenAI οδήγησε στην ανάπτυξη μεγάλων γλωσσικών μοντέλων (LLM) από μεγάλες εταιρείες τεχνολογίας όπως η Microsoft και η Alphabet (Google).

Η επιτυχία του ChatGPT (το οποίο έφτασε τους πρωτοφανείς 100 εκατομμύρια χρήστες σε δύο μήνες), επηρέασε τη Microsoft και την Google να ξεκινήσουν τα δικά τους chatbots AI, Bing Chat και Bard αντίστοιχα, αναφέρει το άρθρο του Vries.
Ο Vries δήλωσε στο RT: «Γνωρίζουμε ήδη ότι τα κέντρα δεδομένων αντιπροσωπεύουν το 1% της παγκόσμιας κατανάλωσης ηλεκτρικής ενέργειας. Χάρη στις ψηφιακές τάσεις, όπως η εξόρυξη κρυπτονομισμάτων και η τεχνητή νοημοσύνη, αυτό μπορεί εύκολα να αυξηθεί στο 2% και περισσότερο τα επόμενα χρόνια».

Η μελέτη του MIT εκτιμά ότι το cloud computing έχει μεγαλύτερο αποτύπωμα άνθρακα από ολόκληρη την αεροπορική βιομηχανία. Επιπλέον, ένα κέντρο δεδομένων μπορεί να απαιτεί την ίδια ποσότητα ηλεκτρικής ενέργειας που απαιτείται για την τροφοδοσία περίπου 50.000 σπιτιών.
Η ηλεκτρική ενέργεια απαιτείται για τη λειτουργία τσιπ υψηλής απόδοσης και συστημάτων ψύξης, καθώς οι επεξεργαστές θερμαίνονται ενώ αναλύουν τεράστιες ποσότητες δεδομένων και παράγουν ακριβείς απαντήσεις.
Η μελέτη του De Vries λέει ότι το μοντέλο "BigScience Large Open-Science Open-Access Multilingual (BLOOM) του Hugging Face κατανάλωσε 433 MWh ηλεκτρικής ενέργειας κατά τη διάρκεια της προπόνησης".
"Άλλα LLM, συμπεριλαμβανομένων των GPT-3, Gopher και Open Pre-trained Transformer (OPT), χρησιμοποιούν 1287, 1066 και 324 MWh αντίστοιχα για εκπαίδευση. Κάθε ένα από αυτά τα LLMs εκπαιδεύτηκε σε terabytes δεδομένων και έχει 175 δισεκατομμύρια ή περισσότερες παραμέτρους», προσθέτει η μελέτη.
Ο De Vries ανέφερε την ερευνητική εταιρεία SemiAnalysis στην εργασία του, η οποία πρότεινε ότι η OpenAI απαιτούσε 3.617 διακομιστές HGX A100 της NVIDIA, με συνολικά 28.936 GPU για την υποστήριξη του ChatGPT, υπονοώντας ζήτηση ενέργειας 564 MWh ημερησίως.
«Η Google ανέφερε ότι το 60% της κατανάλωσης ενέργειας που σχετίζεται με την τεχνητή νοημοσύνη από το 2019 έως το 2021 προήλθε από συμπεράσματα (όπου τα ζωντανά δεδομένα εκτελούνται μέσω ενός μοντέλου τεχνητής νοημοσύνης). Η μητρική εταιρεία της Google, η Alphabet, εξέφρασε επίσης ανησυχία σχετικά με το κόστος εξαγωγής συμπερασμάτων σε σύγκριση με το κόστος της εκπαίδευσης.

Μια μελέτη από ερευνητές του Πανεπιστημίου της Καλιφόρνια στο Μπέρκλεϊ εκτιμά ότι το GPT-3, στο οποίο βασίζεται το ChatGPT, είχε 175 δισεκατομμύρια παραμέτρους που παρήγαγαν 502 μετρικούς τόνους CO2 κατά τη διάρκεια της φάσης εκπαίδευσής του, ενώ οι ημερήσιες εκπομπές άνθρακα ανήλθαν σε 50 λίβρες (ή 8,4 τόνους ετησίως).
Η συζήτηση για τη βιωσιμότητα της τεχνητής νοημοσύνης και τις μελλοντικές δράσεις
Ο De Vries λέει ότι η υψηλότερη ζήτηση ενέργειας για κέντρα δεδομένων θα καλυφθεί συνήθως από ορυκτά καύσιμα. "Έχουμε μόνο περιορισμένη προσφορά ανανεώσιμων πηγών ενέργειας και έχουμε ήδη δώσει προτεραιότητα σε αυτές, οπότε οποιαδήποτε επιπλέον ζήτηση θα τροφοδοτείται από ορυκτά καύσιμα από τα οποία πρέπει να απαλλαγούμε", δήλωσε στο RT. "Ακόμα κι αν βάλουμε τις ανανεώσιμες πηγές ενέργειας στην τεχνητή νοημοσύνη, κάτι άλλο κάπου αλλού θα πρέπει να τροφοδοτείται με ορυκτά καύσιμα - κάτι που θα επιδεινώσει μόνο την κλιματική αλλαγή".

Ο Avik Sarkar, καθηγητής στην Ινδική Σχολή Επιχειρήσεων και πρώην επικεφαλής του κέντρου ανάλυσης δεδομένων Niti Aayog της Ινδίας, θεωρεί ότι η συζήτηση γύρω από τις ενεργειακές απαιτήσεις της AI και το αποτύπωμα άνθρακα είναι ασήμαντη. Εργάστηκε σε μια ανάλυση με τον Διεθνή Οργανισμό Ενέργειας (IEA) το 2018 σχετικά με την ανάπτυξη των κέντρων δεδομένων στην Ινδία και τον αντίκτυπό της στην κατανάλωση ενέργειας στη χώρα.

"Το αποτύπωμα της τεχνητής νοημοσύνης στην κατανάλωση ενέργειας είναι μικροσκοπικό και πολλές τεχνολογίες απορροφούν τεράστιες ποσότητες ενέργειας", δήλωσε στο RT. "Κοιτάξτε οποιονδήποτε κεντρικό δρόμο στις μεγάλες πόλεις, η ποσότητα φωτισμού στις διαφημιστικές πινακίδες είναι τόσο τεράστια που τα φώτα είναι ορατά από το διάστημα, που αναφέρονται ως νυχτερινά φώτα, τα οποία είναι ένας μεγάλος δείκτης ανάπτυξης και οικονομικής ανάπτυξης. 
Η κατανάλωση ενέργειας είναι ένα φυσικό αποτέλεσμα της αστικοποίησης, του καπιταλισμού και της οικονομικής ανάπτυξης – πρέπει να μάθουμε να ζούμε με αυτή την πραγματικότητα».
Σχολιάζοντας την ενεργειακή ζήτηση των κέντρων δεδομένων AI και τον αντίκτυπο των εκπομπών διοξειδίου του άνθρακα, ο de Vries λέει ότι το ζήτημα δεν περιορίζεται μόνο στην Ινδία και ότι η κλιματική αλλαγή είναι ένα παγκόσμιο πρόβλημα. «Εάν αυξήσουμε τόσο τη ζήτηση ενέργειας όσο και τις εκπομπές διοξειδίου του άνθρακα ως αποτέλεσμα της τεχνητής νοημοσύνης, αυτό θα επηρεάσει επίσης όλες τις ευάλωτες χώρες», είπε.
Ο Sarkar παραδέχεται ότι τεράστιες ποσότητες κατανάλωσης ενέργειας για AI συμβαίνουν λόγω μεγάλων κέντρων δεδομένων που παρέχουν υποδομή αποθήκευσης και πληροφορικής. Υπάρχει περαιτέρω ενεργειακός αντίκτυπος από το νερό που χρησιμοποιείται για την ψύξη των κέντρων δεδομένων.
Ο Sarkar επεσήμανε ότι τα περισσότερα παγκόσμια κέντρα δεδομένων εδρεύουν εκτός Ινδίας, υποστηρίζοντας ότι η χώρα δεν αντιμετωπίζει επί του παρόντος σημαντική πρόκληση. Με εξαίρεση τα προσωπικά δεδομένα, άλλα ινδικά σημεία δεδομένων μπορούν να αποθηκευτούν σε κέντρα εκτός της χώρας.

"Τα κρίσιμα δεδομένα που σχετίζονται με τις οικονομικές συναλλαγές, το Aadhar ή τα δεδομένα υγειονομικής περίθαλψης πρέπει να βρίσκονται στην Ινδία και θα ήταν τεράστια. Η Ινδία έχει διαφορετικές κλιματικές ζώνες και μπορεί να μετριάσει την υψηλή κατανάλωση ενέργειας τοποθετώντας αυτά τα κέντρα δεδομένων σε ψυχρότερες, μη σεισμικές ζώνες στη χώρα ", πρότεινε.

Σύμφωνα με τον De Vries, τα καλά νέα είναι ότι υπάρχουν σημεία συμφόρησης στην αλυσίδα εφοδιασμού διακομιστών AI, πράγμα που σημαίνει ότι η ανάπτυξη είναι κάπως περιορισμένη βραχυπρόθεσμα. «Θα πρέπει να χρησιμοποιήσουμε αυτή την ευκαιρία για να σκεφτούμε την υπεύθυνη εφαρμογή της τεχνητής νοημοσύνης και να διασφαλίσουμε ότι παρέχεται διαφάνεια και εκεί όπου χρησιμοποιείται η τεχνητή νοημοσύνη, ώστε να μπορέσουμε να αξιολογήσουμε σωστά τον αντίκτυπο που έχει αυτή η τεχνολογία», είπε.

άρθρο από τονSanjeev Kumar, δημοσιογράφο με έδρα τη Σίμλα (Ινδία) που ειδικεύεται στο περιβάλλον, την κλιματική αλλαγή και την πολιτική.

Δεν υπάρχουν σχόλια: