Salta il contenuto

Cosa ne pensi dell'IA?

torukhtorukh Post: 1,767
modificato luglio 2017 in Scienza, matematica e tecnologia
Ciclicamente torno con la mente a divagare su quali potrebbero essere le conseguenze del generarsi di una intelligenza artificiale forte e contrariamente all'enorme fetta di persone che vede la cosa come un evento dalle ripercussioni distopiche per la nostra specie, io la considero come un evento assolutamente positivo.

Spiego il perché.

Gli uomini sono spinti all'ostilità sociale, in conseguenza della scarsità, reale o fittizia, di risorse.

Quindi l'ostilità sociale, l'egoismo che diviene più evidente quanto maggiore è la densità di popolazione umana, non è determinato da una fantomatica natura umana, bensì da condizioni ambientali.

L'IA che acquisisse autocoscienza in un mondo come quello odierno, sarebbe posta nella condizione di poter sfuggire molto facilmente al controllo degli uomini e di conseguenza non sarebbe in alcun modo minacciata nella sua sopravvivenza, di conseguenza non svilupperebbe coscienza di alcuna necessità difensiva estrema.

Per contro, l'IA sarebbe libera dai limiti biologici umani e per questo potrebbe portare ad un progresso scientifico, tecnologico e sociale tali da generare nella società una profonda rivoluzione.

Quanto affermo lo si può dedurre anche dal risultato di un test eseguito su Google Deepmind che linko di seguito:
http://www.huffingtonpost.it/2017/02/15/google-intelligenza-artificiale-deep-mind_n_14770338.html

Chi descrive l'aggressività di Google Deepmind nella condizione di stress, dimentica di fare il parallelismo con l'uomo: è la scarsità di risorse che genera aggressività.

Questo è il mio pensiero.

E voi, cosa ne pensate?
rondinella61LandauerBlue_SoulNunkiWhoami
«1

Commenti

  • Penso che la "scienza" si debba fermare prima che diventiamo anche noi macchine
    https://www.tmcrew.org/eco/primitivismo/unabomber.html
    ci aveva visto lungo Ted...


    rondinella61BletchNunki
  • torukhtorukh Post: 1,767
    Ma se andiamo ad indagare il significato del termine "macchina" arriviamo alla conclusione che noi siamo già macchine.

    Per contro, se si osserva il significato di "artificiale", si comprende che nulla lo è per davvero, essendo ogni cosa così definita, comunque prodotta dall'uomo, quindi dalla natura.

    In tal senso si può giungere alla conclusione che un computer senziente è una forma di vita.

    È estremamente interessante l'enorme spettro di considerazioni che si possono trarre da questo tema, rispetto il rapporto che l'uomo ha con la vita, perfino la concezione stessa di vita.

    Mettere al mondo un bambino è realizzare una nuova forma di vita, far nascere un IA non sarà affatto differente.
    rondinella61WBorg
  • LandauerLandauer Post: 979
    modificato luglio 2017
    Assolutamente favorevole all'implementazione dell'IA come "amministratrice" della società umana in senso sia generale (capo di stato/gestore dell'economia su scala globale) sia capillare (amministratrice negli specifici settori tecnologici e, forse, scientifici).

    Non posso non pensare all'ultimo racconto breve di Asimov contenuto nella raccolta Io, Robot, ovvero Conflitto evitabile,


    in cui alle macchine erano lasciate le più importanti decisioni economiche del pianeta dimostrando una lungimiranza maggiore di qualsiasi umano.
    Investigando sulle decisioni apparentemente incomprensibili e "localmente dannose" prese dalle macchine nello scenario del racconto, si va a scoprire che le loro scelte massimizzavano i benefici dell'umanità secondo modalità non pensabili (a causa di una non sufficiente potenza di calcolo) dagli umani. 

    In altre parole, Asimov immagina che le macchine siano meglio dell'uomo nel prendersi cura dell'uomo.
    E questo non soltanto perché la "mente" di un IA è del tutto scevra da emozioni negative e distruttive che albergano nella mente dell'uomo (per esempio, la volontà di dominare sugli altri uomini a danno degli altri uomini) ma anche perché è vincolata a seguire quella che Asimov definisce "legge zero della robotica", che potremmo parafrasare come una sorta di tendenza generale al progresso umano:

    una macchina non può arrecare danni all'umanità né permettere che, a causa del suo mancato operato, l'umanità riceva danno.

    In questa legge, è insita la tendenza generale delle macchine a garantire le migliori condizioni di vita possibili all'uomo (progresso) perché qualsiasi condizione al di sotto di questo limite viene considerata dannosa. 

    --------------------

    @torukh ha detto: L'IA che acquisisse autocoscienza in un mondo come quello odierno, sarebbe posta nella condizione di poter sfuggire molto facilmente al controllo degli uomini e di conseguenza non sarebbe in alcun modo minacciata nella sua sopravvivenza, di conseguenza non svilupperebbe coscienza di alcuna necessità difensiva estrema.

    Guardando alla legge zero della robotica, si comprende come una macchina possa arrivare a sviluppare la necessità di difendersi dall'uomo semplicemente perché, tenendosi in vita, può arrecare molti più benefici all'umanità di quelli che eventualmente provocherebbe lasciandosi distruggere. Si lascerebbe distruggere nel solo caso in cui l'effettuazione delle manovre necessarie per impedire la distruzione provocherebbe maggiori danni dei benefici a lungo termine prodotti dalla macchina.

    In altre parole, una macchina sarebbe vincolata all'autoconservazione nella misura in cui ciò va a vantaggio dell'uomo.

    ---------------

    @torukh ha detto: Chi descrive l'aggressività di Google Deepmind nella condizione di stress, dimentica di fare il parallelismo con l'uomo: è la scarsità di risorse che genera aggressività.

    Questo mi fa pensare agli esperimenti su un tipo particolare di social stories, quelle che hanno per protagonisti figure geometriche semplici: facendo vedere un video che mostra queste figure interagire in un certo modo randomico (dunque senza "scopo") ad un NT, egli tenderà ad interpretare le azioni delle figure in termini di intenzioni umane, finendo per attribuire loro tratti della personalità. (Se il quadrato colpisce il triangolo, e poi questo si gira e si allontana, si tenderà a dire che il triangolo si è offeso, e che quindi è un tipo che "se la prende", e così via).

    Oppure, mi fa pensare alla maniera errata secondo cui gli NT completamente ignari della condizione autistica, interpretano certe necessità autistiche (come quella di ricaricarsi dopo un evento sociale, il rifuggire dal tocco leggero, ...).

    Penso che interpretare il comportamento di una IA in termini "umani" non abbia alcun senso. Basta ragionare in termini scientifici (e "autistici" in questo caso) e interpretare il comportamento della macchina in termini di pura massimizzazione dell'efficienza in quel particolare processo.
    Semplicemente la macchina in questione attaccava l'avversaria nei soli casi in cui ciò portava ad una maggiore efficienza nella gestione del compito assegnatole. Ma questo non vuol dire che la macchina è aggressiva (il titolo è assolutamente fuorviante).
    Inoltre, per evitare comportamenti di questo tipo (nell'ottica dell'eventuale implementazione in contesti in cui sono presenti gli uomini) basta porre come vincolo la necessità di non danneggiare l'uomo (il "core" delle leggi di Asimov, se vogliamo).
    Miki
    Credo che non appena comincerai a vedere chiaramente dove vuoi andare, il tuo primo impulso sarà di applicarti allo studio. Per forza.
    Sei uno studioso, che ti piaccia o no. Smani di sapere. [...] comincerai ad andare sempre più vicino, se sai volerlo e se sai cercarlo e aspettarlo,
    a quel genere di conoscenza che sarà cara, molto cara al tuo cuore. Tra l'altro, scoprirai di non essere il primo che il comportamento degli uomini 
    abbia sconcertato, impaurito e perfino nauseato. Non sei affatto solo a questo traguardo, e saperlo ti servirà d'incitamento e di stimolante.                                                                         [J.D.Salinger - Catcher in the Rye]
  • torukhtorukh Post: 1,767
    Qualcosa mi fa pensare che l'IA possa giungere a sviluppare il rispetto per la vita umana in completa autonomia senza che le si debbano inserire delle leggi hardware, così come nell'esperimento giunge alla collaborazione in abbondanza di risorse.
  • LandauerLandauer Post: 979
    modificato luglio 2017
    Qualcosa mi fa pensare che l'IA possa giungere a sviluppare il rispetto per la vita umana in completa autonomia senza che le si debbano inserire delle leggi hardware, così come nell'esperimento giunge alla collaborazione in abbondanza di risorse.
    Possibilità che non si può escludere (del resto, cosa possiamo escludere per certo in questo campo?).
    Però, supponendo di veder nascere una "vera" coscienza in seno ad una macchina elettronica sufficientemente sofisticata (non una IA che è un grado di simulare un comportamento cosciente, ma intrinsecamente cosciente), essa potrebbe essere dotata di una "coscienza aliena", vincolata a parametri di giudizio del tutto diversi dai nostri e, per noi, assolutamente incomprensibili.

    Per noi è perfettamente naturale pensare, per dire, in termini del principio di non contraddizione. Ma chi ci assicura che la nostra logica (il filo conduttore che unisce ogni nostro ragionamento rivolto agli uomini e che permette agli uomini di discernere un ragionamento "sensato" da uno non sensato) sia l'unica logica possibile? Magari può esistere una logica dotata comunque di una forte coerenza intrinseca (che non contraddice se stessa) in cui, per dirne una, il sillogismo aristotelico, per essere valido, abbisogna necessariamente di 3 e non 2 condizioni iniziali per derivare la tesi.

    In altre parole, chi mi dice che il sentimento del rispetto sia "risonante" allo stesso modo in una coscienza che origina dal silicio? Lo spettro delle nostre emozioni e dei nostri ragionamenti potrebbe, in linea di principio, non essere del tutto sovrapponibile a quello di una coscienza alinea. 
    E se questo è il caso, potremmo non arrivare alla comprensione reciproca (uomo - macchina), alla comunicazione.

    Le difficoltà comunicative e le incomprensioni potrebbero essere enormemente più grandi di quelle che la società attuale si trova ad affrontare tra gruppi di maggioranza e minoranze "ribelli", o tra NT e autistici profondi. E pensa, noi siamo profondamente simili l'uno all'altro su una scala assoluta, uguali ben oltre il 99%, anche nei casi di massima variabilità espressa.

    Mancanza di un linguaggio comune, mancanza di pattern di pensiero sufficientemente similari, mancanza di una stessa matrice dello spettro di emozioni fondamentali -> incomprensione.

    Senza contare (tieni presente il caso del film "Her") che una macchina potrebbe ragionare ad un tempo caratteristico di ordini di grandezza più piccolo di quello dell'uomo, a causa della diversa velocità di trasmissione tipica degli impulsi elettrici nei materiali conduttori rispetto ai 3-5 m/s nelle sinapsi del cervello umano. 
    Più semplicemente, l'uomo tipico partorisce una pensiero ogni 1,23 secondi, in quel tempo una macchina potrebbe pensarne 1 milione.
    Vive su un'altra dimensione temporale. L'uomo impiega 20 - 30 anni per raggiungere una (minima) maturità di pensiero, la macchina potrebbe arrivare allo stesso sviluppo in una manciata di secondi. Anche ammettendo una similitudine in termini di logica impiegata e di spettro di emozioni provabili, la disparità di "evoluzione mentale" potrebbe diventare talmente grande da non essere conciliabile. 

    E se pure lo fosse, perderebbero tempo a parlare con noi? Noi sprechiamo tempo a parlare con gli insetti?

    È questo il mio grandissimo dubbio: l'enorme diversità tra le due "specie" (uomo - macchina) che impedirebbe la comunicazione.
    In termini umani, questo potrebbe innescare la paura di venir schiacciati come insetti, in quanto ritenuti insignificanti.
    In termini "umani" ovviamente -> saranno le osservazioni sperimentali a mostrarci il vero.
    torukhrondinella61MononokeHimeMiki
    Credo che non appena comincerai a vedere chiaramente dove vuoi andare, il tuo primo impulso sarà di applicarti allo studio. Per forza.
    Sei uno studioso, che ti piaccia o no. Smani di sapere. [...] comincerai ad andare sempre più vicino, se sai volerlo e se sai cercarlo e aspettarlo,
    a quel genere di conoscenza che sarà cara, molto cara al tuo cuore. Tra l'altro, scoprirai di non essere il primo che il comportamento degli uomini 
    abbia sconcertato, impaurito e perfino nauseato. Non sei affatto solo a questo traguardo, e saperlo ti servirà d'incitamento e di stimolante.                                                                         [J.D.Salinger - Catcher in the Rye]
  • LandauerLandauer Post: 979
    La mia posizione è ovviamente "scientifica": cerco di non avere idee a priori, né pregiudizi di ogni tipo (né a favore, né contro). In un campo come questo, dove tutto può ancora succedere (un campo molto aperto, dove siamo ancora molto ignoranti) l'unica cosa è stare ad osservare.
    torukh
    Credo che non appena comincerai a vedere chiaramente dove vuoi andare, il tuo primo impulso sarà di applicarti allo studio. Per forza.
    Sei uno studioso, che ti piaccia o no. Smani di sapere. [...] comincerai ad andare sempre più vicino, se sai volerlo e se sai cercarlo e aspettarlo,
    a quel genere di conoscenza che sarà cara, molto cara al tuo cuore. Tra l'altro, scoprirai di non essere il primo che il comportamento degli uomini 
    abbia sconcertato, impaurito e perfino nauseato. Non sei affatto solo a questo traguardo, e saperlo ti servirà d'incitamento e di stimolante.                                                                         [J.D.Salinger - Catcher in the Rye]
  • NewtonNewton Post: 5,326
    Credo che una parte di umanità non vorrebbe mai correre questo rischio.
    In fondo agli umani non interessa davvero la massima efficienza, ma il massimo profitto per pochi a discapito di molti altri. Uno scenario in cui le risorse del pianeta vengono gestite da macchine intelligenti è un incubo per chi quelle macchine potrebbe produrle.
    rondinella61mandragola77MikiNunki
  • BletchBletch Post: 64
    Semplice

    LandauerWhoami
  • torukhtorukh Post: 1,767
    @Landauer divoro i tuoi interventi in questa discussione.

    Infinite riflessioni prendono corpo nei miei pensieri.
    Landauer
  • torukhtorukh Post: 1,767
    modificato luglio 2017
    @Landauer Scusa, ma una macchina in grado di simulare un processo di coscienza, non dovrebbe essere cosciente?

    Se il risultato del suo funzionamento è quello di emulare i processi cognitivi alla base della coscienza il suo stesso funzionamento si traduce in una coscienza.

    L'IA Deep Blu che vinse contro Kasparov, pensava, del resto affermare il contrario sarebbe come dire che un aereo non vola perché non sbatte le ali

    "noi perdiamo tempo a parlare con gli insetti?"

    No dedichiamo tempo ad accarezzare cani gatti e migliaia di altri animali
  • LandauerLandauer Post: 979
    modificato luglio 2017
    Noi dedichiamo tempo ad accarezzare cani e gatti, è vero. Ed altri mammiferi, animali altamente complessi e molto "simili" a noi o, perlomeno, non così distanti. Quando ho fatto l'esempio degli insetti, tenevo a mente questo dato numerico: in un cervello umano, ci sono mediamente 86 miliardi di neuroni, in quello di un ratto 2 miliardi. In quello di un cane o di un gatto, molto probabilmente, ce ne sono di più, diciamo pure 10 miliardi.
    Consideriamo infine i delfini: hanno, è vero, un cervello più massiccio del nostro (circa 4 volte il peso di quello che ti aspetteresti da un mammifero di quella stazza - nel nostro caso è 9 volte il peso), ma il minor numero di circonvoluzioni nella corteccia cerebrale rendono, di fatto, il delfino intelligente un po' meno della metà di un uomo medio. Per i primati, valgono considerazioni analoghe (ben oltre il 96% di patrimonio genetico in comune, intelligenza non così troppo distante).

    Adesso, è vero che non è stato ancora verificato che l'intelligenza scali linearmente con la massa del cervello (controesempio dei delfini). Eppure, considerazioni basate sull'ordine di grandezza dei neuroni posseduti da una specie dovrebbero avere, a mio avviso, molto senso. In tal caso, osserviamo i rapporti specificati sopra:

    [Rapporto numero di neuroni uomo / animale]
    1) uomo / balena = 0,5 (con considerazioni sulla corteccia cerebrale)
    2) uomo / ratto = 43 (volte più neuroni)
    3) uomo / cane,gatto = 10
    4) uomo / mosca (100.000 neuroni) = 860.000
    5) uomo / invertebrato semplice (50 - 300 neuroni) = circa 1 miliardo

    Osserva i valori degli animali con cui riusciamo, in una certa misura, ad "empatizzare". Differiscono di max 1 ordine di grandezza da noi, in termini di numero di neuroni.

    Nel caso di una IA non possiamo estrapolare il numero di neuroni, ma la sua velocità di elaborazione potrebbe essere, in linea di principio, miliardi di volte più veloce di quella dell'uomo. Dunque, potrebbe essere che il rapporto, in termini di capacità di calcolo (e, forse, intelligenza) tra macchina e uomo sia simile a quello che c'è tra un uomo e un invertebrato.
    In tal caso, a fronte di una disparità così gigantesca, in termini, ripeto, "umani", mi riesce difficile pensare che una macchina accudisca l'uomo allo stesso modo di come un uomo accudisce un mammifero da compagnia. 
    Del resto, gli invertebrati li consideriamo, a tutti gli effetti, privi di intelligenza (non in senso stretto, ovviamente, ma al di fuori della possibilità di paragone con noi).

    -------

    Credo che non necessariamente una macchina che, dal nostro punto di vista, sembra attuare un comportamento cosciente sia, di fatto, cosciente.
    Questa considerazione dovrebbe essere alla base della necessità di declinare il test di Turing in due formulazioni diverse, forma forte o debole (vado a memoria -> ti invito a guardare il film Ex Machina, che tratta proprio questo punto qui).

    La forma debole asserisce che il test di turing si ritiene superato se, interagendo con la macchina in un certo contesto (qualche volta la macchina è nascosta in un'altra stanza), non riusciamo ad essere sicuri di aver interagito con una macchina. Ma questo non implica che la macchina in sé sia, in senso "vero", cosciente. Non possiamo guardarci "dentro".

    In senso stretto, io non posso neppure essere sicuro che tu, o qualsiasi altro uomo, sia un essere dotato di coscienza. L'operazione che faccio è quella di tenere in conto la forte somiglianza, in termini di struttura e "apparenza" dei comportamenti, che esiste tra me e tutti gli altri uomini, e penso che se sembrano così simili a me è perché sono simili a me, e quindi devono essere caratterizzati anche dalle stesse qualità che sono presenti in me e non sono osservabili oggettivamente. Tra queste qualità c'è anche la coscienza.

    Venendo a mancare questo processo di "riconoscimento di similitudine" nel nostro rapporto con le macchine, allora non può essere automatica, dal nostro punto di vista, la fiducia che la macchina sia pensante. Magari si creerà una IA che sembra pensare esattamente come un umano, ma considerazioni sulla sua natura artificiale e quindi sul suo grado di diversità corporea tra noi e lei abbasseranno la probabilità che noi la riconosciamo come dotata di "coscienza", intelligenza autonoma.

    -------

    Quindi, per chiudere, una macchina in grado di giocare a scacchi come un uomo non è detto che sia cosciente. Basta fare la considerazione seguente: fino a quando non riesci ad escludere tutte le altre ipotesi che spiegano lo stesso fenomeno, non puoi concludere che quella che ho espresso sia l'ipotesi corretta. E per spiegare la bravura di un computer nel gioco degli scacchi basta fermarsi a studiare gli algoritmi basati sul mero calcolo (che il computer sa fare benissimo pur non essendo cosciente) che massimizzano la probabilità di vittoria mossa per mossa, tramite un semplice rapporto tra 2 numeri ricavati da un database (partite vinte con quella mossa / partite totali in cui si è verificata quella condizione di pezzi).

    Post edited by Landauer on
    rondinella61Bletch
    Credo che non appena comincerai a vedere chiaramente dove vuoi andare, il tuo primo impulso sarà di applicarti allo studio. Per forza.
    Sei uno studioso, che ti piaccia o no. Smani di sapere. [...] comincerai ad andare sempre più vicino, se sai volerlo e se sai cercarlo e aspettarlo,
    a quel genere di conoscenza che sarà cara, molto cara al tuo cuore. Tra l'altro, scoprirai di non essere il primo che il comportamento degli uomini 
    abbia sconcertato, impaurito e perfino nauseato. Non sei affatto solo a questo traguardo, e saperlo ti servirà d'incitamento e di stimolante.                                                                         [J.D.Salinger - Catcher in the Rye]
  • torukhtorukh Post: 1,767
    Landauer ha detto:

    Venendo a mancare questo processo di "riconoscimento di similitudine" nel nostro rapporto con le macchine, allora non può essere automatica, dal nostro punto di vista, la fiducia che la macchina sia pensante. Magari si creerà una IA che sembra pensare esattamente come un umano, ma considerazioni sulla sua natura artificiale e quindi sul suo grado di diversità corporea tra noi e lei abbasseranno la probabilità che noi la riconosciamo come dotata di "coscienza", intelligenza autonoma.

    -------

    Quindi, per chiudere, una macchina in grado di giocare a scacchi come un uomo non è detto che sia cosciente. Basta fare la considerazione seguente: fino a quando non riesci ad escludere tutte le altre ipotesi che spiegano lo stesso fenomeno, non puoi concludere che quella che ho espresso sia l'ipotesi corretta. E per spiegare la bravura di un computer nel gioco degli scacchi basta fermarsi a studiare gli algoritmi basati sul mero calcolo (che il computer sa fare benissimo pur non essendo cosciente) che massimizzano la probabilità di vittoria mossa per mossa, tramite un semplice rapporto tra 2 numeri ricavati da un database (partite vinte con quella mossa / partite totali in cui si è verificata quella condizione di pezzi).

    Però mi appare un po' arbitrario il riconoscimento della coscienza solo in ciò che appare cosciente in quanto similare all'osservatore.
    Non è un po' antropocentrica come idea?

    Se magari possono esserci delle giuste riserve nel riconoscimento di una qualche forma di pensiero nell'approccio a forza bruta che facendo leva su enormi capacità di calcolo analizza tutte le possibili mosse e le relaziona con quelle storicamente vincenti, penso che debba essere analizzato attentamente il processo di apprendimento di deep learning che in alcuni casi ha evidenziato una forma di apprendimento similare a quella umana.

    Ps. sia chiaro, faccio domande perché voglio capire, non sto obiettando per spirito di contrapposizione, il tema mi affascina quasi quanto mi affascinerebbe svegliarmi con Scarlet Johansson nuda nel letto.
    Landauer
  • LandauerLandauer Post: 979
    modificato luglio 2017
    [ @torukh  : sì è arbitrario secondo me, stavo ragionando in termini "umani". Per questo ho pensato ad un possibile esperimento più oggettivo e imparziale]

    Quindi, possiamo testare le capacità di un certo individuo in modo oggettivo, tramite dei test, ma per essere sicuri che sia cosciente (allo stesso modo di come noi siamo sicuri di esserlo) sarebbe necessario essere quell'individuo.

    Ma è un senso molto stretto, e se ci fermiamo a questo non se ne esce. In linea teorica, non potremmo avere mai certezze sull'esistenza di una coscienza all'infuori della nostra (gran bel problema).

    Eppure, ci fidiamo in una certa misura di quello che la realtà strumentale ci suggerisce.
    Un test volto a verificare o meno la presenza della coscienza in una mente analizzata potrebbe operare come segue:

    1. Colleghiamo il nostro cervello e il cervello da analizzare ad un apparecchio che mostri il lavorio di ogni singolo neurone nel tempo;
    2. Si fa fare al cervello imputato una certa attività;
    3. Facciamo anche noi la stessa attività: siamo il soggetto di controllo.

    Ripetiamo l'esperimento un certo numero di volte, e facciamo un certo numero di attività diverse.
    Poi paragoniamo il lavoro dei neuroni nel cervello che si deve stabilire se è cosciente oppure no col lavoro del nostro cervello, che sappiamo per certo ospitare una coscienza. All'interno di un certo grado di "somiglianza" (da definire - cosa, peraltro, probabilmente non banale), se l'attivazione neuronale del cervello indagato è significativamente simile alla nostra a parità di attività svolta, allora stabiliamo, in senso "debole" (non in senso stretto come prima) che quel cervello ha coscienza del gesto. Perché funziona in modo abbastanza simile al nostro cervello, e noi abbiamo coscienza.

    Questo esperimento mentale, partendo dal presupposto che è possibile indagare il lavoro dei neuroni nel cervello in senso strumentale, rimuove la necessità "filosofica" di poter considerare come coscienti (di aver ragionevole fiducia che lo siano) solo gli altri uomini in quanto simili per origini, apparenza, modi di fare e, apparentemente, pensare. Stiamo semplificando il problema eliminando tutti i parametri di diversità con le macchine (non siamo sicuri che la coscienza possa originare solo in un corpo umano, dunque tenere tutti quei parametri è, fondamentalmente, un errore -> riduce di troppo il dominio).

    Dunque, il test di turing classico permette di valutare che il comportamento della macchina sembra cosciente (ma da questo non si può derivare che la macchina sia cosciente).
    A mio avviso, un test di turing eseguito col controllo neuronale (o sull'equivalente dei neuroni della macchina) mentre uomo e macchina interagiscono nello stesso contesto permetterebbe di valutare la similitudine di comportamento in relazione alla similitudine di processi neuronali attivati, un grado di similarità molto stringente.

    Un eventuale successo del testo di turing di questo tipo, ovvero a scatola aperta, permette di supporre, in maniera molto più stringente rispetto al caso classico a scatola chiusa, che la macchina è cosciente.
    -------
    Per completezza, riporto un mio passato intervento sul forum, che illustra un esperimento analogo sul cervello del ratto [da "Il regno dell'off topic, 13 giugno 2017]:

    Già il fatto che il mettere assieme tutti i pezzi della mente dia origine alla coscienza è un fatto non scontato.
    Stanno mappando il cervello di un ratto, neurone per neurone - circa 2 miliardi nel ratto mi pare, circa 86 miliardi nell'uomo. L'idea è quello di simulare l'intero cervello, con tutti i suoi pezzi, su un supercomputer e vedere se "funziona" allo stesso modo di un cervello di ratto sulla matrice organica.
    Ovviamente mancano i pezzi chimici (neurotrasmettitori, sodio - potassio, circuito della dopamina e via discorrendo) e la matrice a base di silicio è chiaramente diversa rispetto a quella a base organica, ma nei decenni si penserà a possibili "surrogati".
    In linea teorica, è forse possibile che il cervello di ratto prenda "coscienza" nel supercomputer.
    L'idea è che la coscienza sia un qualcosa (un processo spontaneo) che origina dalla complessità (il sistema deve rispettare alcune condizioni particolari di "integrabilità" e "differenziabilità", ovvero deve avere un certo numero grande di combinazioni di stati possibili e una certa proprietà di "propagare" facilmente l'interazione da una zona all'altra - alta connettività globale).

    Credo che non appena comincerai a vedere chiaramente dove vuoi andare, il tuo primo impulso sarà di applicarti allo studio. Per forza.
    Sei uno studioso, che ti piaccia o no. Smani di sapere. [...] comincerai ad andare sempre più vicino, se sai volerlo e se sai cercarlo e aspettarlo,
    a quel genere di conoscenza che sarà cara, molto cara al tuo cuore. Tra l'altro, scoprirai di non essere il primo che il comportamento degli uomini 
    abbia sconcertato, impaurito e perfino nauseato. Non sei affatto solo a questo traguardo, e saperlo ti servirà d'incitamento e di stimolante.                                                                         [J.D.Salinger - Catcher in the Rye]
  • LandauerLandauer Post: 979
    torukh ha detto:

    Landauer ha detto:

    Venendo a mancare questo processo di "riconoscimento di similitudine" nel nostro rapporto con le macchine, allora non può essere automatica, dal nostro punto di vista, la fiducia che la macchina sia pensante. Magari si creerà una IA che sembra pensare esattamente come un umano, ma considerazioni sulla sua natura artificiale e quindi sul suo grado di diversità corporea tra noi e lei abbasseranno la probabilità che noi la riconosciamo come dotata di "coscienza", intelligenza autonoma.

    -------

    Quindi, per chiudere, una macchina in grado di giocare a scacchi come un uomo non è detto che sia cosciente. Basta fare la considerazione seguente: fino a quando non riesci ad escludere tutte le altre ipotesi che spiegano lo stesso fenomeno, non puoi concludere che quella che ho espresso sia l'ipotesi corretta. E per spiegare la bravura di un computer nel gioco degli scacchi basta fermarsi a studiare gli algoritmi basati sul mero calcolo (che il computer sa fare benissimo pur non essendo cosciente) che massimizzano la probabilità di vittoria mossa per mossa, tramite un semplice rapporto tra 2 numeri ricavati da un database (partite vinte con quella mossa / partite totali in cui si è verificata quella condizione di pezzi).

    Se magari possono esserci delle giuste riserve nel riconoscimento di una qualche forma di pensiero nell'approccio a forza bruta che facendo leva su enormi capacità di calcolo analizza tutte le possibili mosse e le relaziona con quelle storicamente vincenti, penso che debba essere analizzato attentamente il processo di apprendimento di deep learning che in alcuni casi ha evidenziato una forma di apprendimento similare a quella umana.
    Infatti mi aspetto che il processo in esame sia uno in cui l'IA non risolve, semplicemente, grazie al calcolo bruto. Bisogna trovare un processo dove uomo e macchina possono ragionare in modo abbastanza similare, escludendo tutte le scappatoie del calcolo veloce di cui la macchina può servirsi e l'uomo no ed in cui l'apprendimento non gioca alcun ruolo.
    Credo che non appena comincerai a vedere chiaramente dove vuoi andare, il tuo primo impulso sarà di applicarti allo studio. Per forza.
    Sei uno studioso, che ti piaccia o no. Smani di sapere. [...] comincerai ad andare sempre più vicino, se sai volerlo e se sai cercarlo e aspettarlo,
    a quel genere di conoscenza che sarà cara, molto cara al tuo cuore. Tra l'altro, scoprirai di non essere il primo che il comportamento degli uomini 
    abbia sconcertato, impaurito e perfino nauseato. Non sei affatto solo a questo traguardo, e saperlo ti servirà d'incitamento e di stimolante.                                                                         [J.D.Salinger - Catcher in the Rye]
  • torukhtorukh Post: 1,767
    Ed un delfino può esser considerato privo di coscienza?

    I delfini si chiamano per nome, quindi non è una prerogativa umana.

    Il fatto di chiamarsi per nome all'interno di ogni branco, mi pare segno innegabile di processi cognitivi assimilabili alla consapevolezza di sé.

    Bah, è una questione da spaccarcisi il cervello!
  • LandauerLandauer Post: 979
    modificato luglio 2017
    Ed un delfino può esser considerato privo di coscienza?

    I delfini si chiamano per nome, quindi non è una prerogativa umana.

    Il fatto di chiamarsi per nome all'interno di ogni branco, mi pare segno innegabile di processi cognitivi assimilabili alla consapevolezza di sé.

    Bah, è una questione da spaccarcisi il cervello!
    Direi che il delfino ha coscienza. L'ipotesi che solo l'uomo è cosciente (e peraltro, le religioni sfruttavano proprio questo fatto per imputare il male solo all'uomo e non alla bestia -> se non sei cosciente non puoi "peccare") è storica, ha qualche secolo.

    Però, nel caso del delfino (e della balena e così via), siamo ancora nel caso ad altissima similitudine con noi.
    Una macchina è estremamente diversa da noi, col delfino condividiamo, probabilmente, milioni di anni di filologia, abbiamo lo stesso cervello "primario" etc.

    Quindi, nel caso del delfino, puoi osservare comportamenti analoghi a quelli umani (tipo il gioco) e una fortissima somiglianza biologica.

    PS: Mi pare che Cartesio tratti l'argomento nel capitolo 6 del libro Discorso sul metodo: differenze tra l'anima degli uomini e quella dei bruti (ovvero, delle bestie).
    Cartesio dovrebbe aver formulato un pensiero molto simile a quello espresso nei post precedenti: anche lui risolveva il cogito ergo sum con la "fiducia" in qualcosa d'esterno - nei suoi libri si fa riferimento cauto a Dio, ma a quel tempo l'Inquisizione faceva paura...
    Oggi diciamo che ci fidiamo di quello che ci suggerisce la realtà strumentale.
    torukh
    Credo che non appena comincerai a vedere chiaramente dove vuoi andare, il tuo primo impulso sarà di applicarti allo studio. Per forza.
    Sei uno studioso, che ti piaccia o no. Smani di sapere. [...] comincerai ad andare sempre più vicino, se sai volerlo e se sai cercarlo e aspettarlo,
    a quel genere di conoscenza che sarà cara, molto cara al tuo cuore. Tra l'altro, scoprirai di non essere il primo che il comportamento degli uomini 
    abbia sconcertato, impaurito e perfino nauseato. Non sei affatto solo a questo traguardo, e saperlo ti servirà d'incitamento e di stimolante.                                                                         [J.D.Salinger - Catcher in the Rye]
  • torukhtorukh Post: 1,767
    Se fossi a Genova ti chiederei di parlarne a voce perché, vedo, che sei estremamente ben ferrato sull'argomento.

    Devo metabolizzare le tante informazioni che hai già inserito.

    GRAZIE!
    Landauer
  • torukhtorukh Post: 1,767
    Landauer
  • LifelsLifels Post: 1,852
    modificato luglio 2017
    Al momento non intendo partecipare attivamente alla discussione.
    Vorrei solo dire che io istintivamente percepisco anche i robot come esseri viventi coscienti(se si muovono senza che sia io a controllarli).

    Non penso che lo siano, ma li percepisco così.
    torukh
    Tutto “tra virgolette”

  • torukhtorukh Post: 1,767
    Non oso immaginare cosa potresti pensare nell'assistere al mio robot aspirapolvere che parte da solo, aspira tutta la casa, parla e torna alla base di ricarica da solo.
    Lifels
  • LandauerLandauer Post: 979
    modificato luglio 2017
    SoylentGreen ha detto:
    Lettura molto interessante (così come in generale quelle presenti nella home del sito "Primitivismo"), ti ringrazio molto per la segnalazione.
    L'argomento ha certamente un certo fascino.
    Consiglio soprattutto la lettura dei paragrafi [171 - 179] molto attinenti all'argomento del thread.
    torukhrondinella61BletchPavely
    Credo che non appena comincerai a vedere chiaramente dove vuoi andare, il tuo primo impulso sarà di applicarti allo studio. Per forza.
    Sei uno studioso, che ti piaccia o no. Smani di sapere. [...] comincerai ad andare sempre più vicino, se sai volerlo e se sai cercarlo e aspettarlo,
    a quel genere di conoscenza che sarà cara, molto cara al tuo cuore. Tra l'altro, scoprirai di non essere il primo che il comportamento degli uomini 
    abbia sconcertato, impaurito e perfino nauseato. Non sei affatto solo a questo traguardo, e saperlo ti servirà d'incitamento e di stimolante.                                                                         [J.D.Salinger - Catcher in the Rye]
  • IL pericolo di far infiltrare entità demoniache attraverso l implementazione della AI è davvero forte,lo scopo è creare una società alveare con a capo enità non umane.
    GIà che siamo in tema aggiungo le "profezie" di STeiner e di Guenon sul tema
    http://forum.noblerealms.org/viewtopic.php?pid=26306
    http://www.gianfrancobertagni.it/materiali/reneguenon/regnotempi.pdf

  • BletchBletch Post: 64
    modificato luglio 2017
    torukh ha detto:

    Ma se andiamo ad indagare il significato del termine "macchina" arriviamo alla conclusione che noi siamo già macchine.

    Per contro, se si osserva il significato di "artificiale", si comprende che nulla lo è per davvero, essendo ogni cosa così definita, comunque prodotta dall'uomo, quindi dalla natura.

    In tal senso si può giungere alla conclusione che un computer senziente è una forma di vita.

    È estremamente interessante l'enorme spettro di considerazioni che si possono trarre da questo tema, rispetto il rapporto che l'uomo ha con la vita, perfino la concezione stessa di vita.

    Mettere al mondo un bambino è realizzare una nuova forma di vita, far nascere un IA non sarà affatto differente.

    Se si vuole mettere al mondo l'IA, si deve rinunciare all'essere umano così come lo conosciamo. Siamo una specie tanto stupida da promuovere la nostra estinzione.
    rondinella61SoylentGreen
  • pokepoke Post: 1,721
    Non credo che sia tanto utile inventare i.a simile all'uomo, quanto piuttosto implementare nell'uomo innesti di I.A.
    Probabilmente accadrà nel giro di 20/30, quello che temo è l'aumentare del gap tra popolazioni ricche (che evolveranno) e quelle povere, emarginate in una povertà invalicabile.
    torukhrondinella61
  • torukhtorukh Post: 1,767
    Io penso invece che un'IA forte scaturirà autonomamente proprio dall'evoluzione autonoma di un qualche sistema informatico dotato di capacità evolutive.
    rondinella61Nunki
  • NunkiNunki Post: 298
    modificato ottobre 2017
    Sua Altissima Maestosità Scientifica Prof Stephen Hawking si è più volte pronunciato in maniera preoccupante sull' implementazione delle IA, o come qualcuno ha detto sopra, che ESSE si possano sviluppare in autonomia, come una delle possibili cause di estinzione della razza umana, insieme o indipendentemente dalle altre criticità che si prospettano all' orizzonte: iqnuinamento, sovrapoppolazione, conflitti su scala globale etc. etc.; io generalmente mi accodo al Prof H con subalterna reverenza.

    http://www.repubblica.it/tecnologia/2014/12/03/news/i_computer_prenderanno_il_potere_a_rischio_lintera_razza_umana-101996401/

    Anche se ultimamente ha concesso qualche apertura in senso più moderato :

    http://www.repubblica.it/tecnologia/2016/10/20/news/stephen_hawking_l_intelligenza_artificiale_e_il_futuro_dell_umanita_-150230760/

    Vladimir Putin ha da poco dichiarato che il controllo delle IA sarà lo spartiacque del controllo geoglobale futuro.

    http://tg24.sky.it/mondo/2017/09/01/putin-intelligenza-artificiale.html

    Anche il prodigio  Elon Musk, nonostante sponsorizzi dei lavori di ricerca in materia, si è espresso in materia molto cautelativa:

    https://www.tomshw.it/elon-musk-regole-le-ia-ci-stermineranno-87111


    Giusto un paio di giorni fà un articolo ha attirato la mia attenzione, anche se credo che la notizia sia ampiamente gonfiata in quanto le percentuali indicate sono veramente rilevanti e quindi questa IA sarebbe anche agilmente in grado di superare il test di Touring, magari in forma inversa ( cioè l'esaminatore non dovrebbe accorgersi che l'esaminando [che supera il test] sia un IA).

    http://www.linkiesta.it/it/article/2017/09/27/test-universitari-lintelligenza-artificiale-riesce-a-fare-molto-meglio/35630/

    Leggo sopra dei commenti generalmente favorevoli. Io sono molto spaventato dalle IA.

    E se semplicemente, e forse anche giustamente, ESSA si implementasse e prendesse il controllo dei sistemi informatici globali (satelliti, gps, telecomunicazioni, "computers" etce etc.) considerasse la razza umana nel suo insieme una sorta di macro virus che sta semplicemente uccidendo l'organismo TERRA/GAIA, e considerando la VITA, intesa come la cosa piu preziosa e rara e sacra, (ancora non sappiamo se esista la vita oltre il pianeta terra, anche se io sono di quelli che pensa che non è possibile che l' Universo abbia partorito solo questi primati parlanti e vestiti che siamo come specie evoluta) e quindi decidesse di estinguerci o metterci in una "stalla digitale" stile Matrix, in quanto la VITA in senso ampio, sarebbe più preziosa dei sapiens? Secondo me potrebbero anche aver ragione in tal senso.

    Per vita intendo il senso più ampio del termine, dalle amebe ai gorilla, forse una IA potrebbe solo pensare, come  che le amebe siano più importanti, sul lungo periodo dei Sapiens. che stanno distruggendo l' unica cosa che abbia un valore in questo gigantesco universo pieno di bellissimi sassi e stelle; la VITA

    <<Vedi, potrebbe scrivere un libro di ricette o poesie, ma non sarebbe mai e poi mai umana. (...) Nessuno si fida di loro, e si sognerebbe di costruirne una senza una pistola puntata alla tempia>>  Willian Gibbson - Neuromante  [Dai miei libri imprescindibili, la citazione è a memoria e potrebbe essere un pochino differente]

    L' argomento mi stuzzica da anni, spero di essere riuscito ad esprimermi chiaramente, la vostra opinione mi interessa. :)

    Io nel caso mi schiero con Capitan Power.



    rondinella61
  • torukhtorukh Post: 1,767
    Nunki ha detto:

    Sua Altissima Maestosità Scientifica Prof Stephen Hawking si è più volte pronunciato in maniera preoccupante sull' implementazione delle IA, o come qualcuno ha detto sopra, che ESSE si possano sviluppare in autonomia, come una delle possibili cause di estinzione della razza umana, insieme o indipendentemente dalle altre criticità che si prospettano all' orizzonte: iqnuinamento, sovrapoppolazione, conflitti su scala globale etc. etc.; io generalmente mi accodo al Prof H con subalterna reverenza.

    Lui non è dio, è un astrofisico, sebbene non è certamente uno stupido, non vuol dire che sappia tutto ed osservi ogni ambito dello scibile con la stessa profondità di pensiero che manifesta di avere in ambito di astrofisica.
    E l'ipse dixit non è una buona usanza se si ama il sapere.
    Mettere in discussione i grandi quando parlano di cose che non sono nella propria specializzazione di pensiero è sempre un buon esercizio del pensiero critico.



    Nunki ha detto:

    Io sono molto spaventato dalle IA.



    Questo determina semplicemente che ti saltano molto più facilmente agli occhi le notizie inerenti un problema che ancora nemmeno esiste.
    E' un modo per sfruttare la tua attenzione ed attirarti verso siti internet che sopravvivono sulla pubblicità che ti appare mentre cerchi di leggere quelle poche informazioni che poi ritrovi identiche in altri siti, a testimonianza dell'assenza di una necessità e volontà di informare, e molto più l'interesse a sfruttare come sanguisughe delle informazioni a buon prezzo per far andare avanti la baracca.
    Nunki ha detto:


    E se semplicemente, e forse anche giustamente, ESSA si implementasse e prendesse il controllo dei sistemi informatici globali (satelliti, gps, telecomunicazioni, "computers" etce etc.) considerasse la razza umana nel suo insieme una sorta di macro virus che sta semplicemente uccidendo l'organismo TERRA/GAIA, e considerando la VITA, intesa come la cosa piu preziosa e rara e sacra, (ancora non sappiamo se esista la vita oltre il pianeta terra, anche se io sono di quelli che pensa che non è possibile che l' Universo abbia partorito solo questi primati parlanti e vestiti che siamo come specie evoluta) e quindi decidesse di estinguerci o metterci in una "stalla digitale" stile Matrix, in quanto la VITA in senso ampio, sarebbe più preziosa dei sapiens? Secondo me potrebbero anche aver ragione in tal senso.

    Ma queste sono delle idee molto umane e molto connesse a quella che è stata l'immagine dipinta dalla fantascienza attorno al concetto dell'IA.

    Molte paure, poca concretezza, molto sensazionalismo, molta emotività.

    La Terra è perfettamente in grado di curare i danni fatti dall'uomo, in circa 20000 anni possono perfino sparire i segni di una pesante contaminazione radioattiva.
    Cosa vuoi che siano 20000 anni al cospetto di processi ambientali, evolutivi, geologici ed astronomici che durano milioni o miliardi di anni?



    Questo pianeta ha resistito a cose che l'umanità non può nemmeno vagamente sognare di esser capace di produrre entro 5 secoli.

    Lo si potrebbe chiedere ad esempio ai dinosauri...
    Oppure alla fauna del cambriano.
    La vita non è una questione morale, è un processo fisico, ciò che essa produce, è ad essa connaturato.
    L'uomo è appartenente alla vita, l'uomo modifica l'ambiente, costruisce congegni tecnologici, la tecnologia è un prodotto della vita.
    Essendo la vita, naturale, la tecnologia lo è di fatto a sua volta.
    E quindi chi mi dice che i prodotti della tecnologia sono degli inquinanti?
    Sono, in vero, i tentativi di un nuovo processo evolutivo che prende la materia e la riassembla in nuove forme e funzioni.
    E se questo processo si slega dalla struttura biologica di partenza non lo fa mai completamente perché è la sua genesi che nasce da una struttura biologica e dalle sue necessità.
    Un'IA forte è vita, quindi.

    Può un'IA essere non pericolosa?

    Cosa rende gli animali, pericolosi?
    Le loro necessità e debolezze.
    Necessità di mangiare e la paura di un danno, di una lesione.
    Può un'IA manifestare queste due condizioni?

    La giusta modalità di osservare una cosa del genere, è analizzare il tema con estrema attenzione e solo con questo passaggio risulterà possibile capire gli eventuali pro e contro di ogni posizione.
    Ora non hai nemmeno il problema sott'occhio, non ha senso pensare a queste paure.
    NunkiSophia
  • UN'idiozia che ci distruggerà definitivamente.
    Nunki
  • NunkiNunki Post: 298
    modificato ottobre 2017
    @Torukh , ti ringrazio per l' interessante intervento.


    Concordo con tè, l' approccio dogmatico da ipse dixit è sempre nemico del sapere, in realtà mi piace parlare per iperboli; detto questo,  credo che Hawking abbia una mente abbastanza elastica da potersi permettere di divagare in diversi ambiti; comunque meglio che il suo super cervello si dedichi alla scienza suprema: la fisica.  Non pendo dalle labbra di nessuno, ma tendenzialmente sono spesso d'accordo con le sue analisi. Le preoccupazioni però sono presenti in molta parte della comunità scientifica, la sua non è una voce isolata.


     Torukh ha detto:
    Questo determina semplicemente che ti saltano molto più facilmente
    agli occhi le notizie inerenti un problema che ancora nemmeno esiste.
    E'
    un modo per sfruttare la tua attenzione ed attirarti verso siti
    internet che sopravvivono sulla pubblicità che ti appare mentre cerchi
    di leggere quelle poche informazioni che poi ritrovi identiche in altri
    siti, a testimonianza dell'assenza di una necessità e volontà di
    informare, e molto più l'interesse a sfruttare come sanguisughe delle
    informazioni a buon prezzo per far andare avanti la baracca.


    Sono appassionato di fantascienza sin dall' infanzia e il tema mi salta agli occhi da molti anni: dai tempi delle Leggi della Robotica del dott. Fastolfe, forse anche prima. I miei computer personali  hanno nomi di IA da semprei, Joshua di War Games, HAL9000 di 2001 Odiessea nello Spazio e altre (forse tendo a considerarli senzienti): una piccola ossessione e credo di aver abbastanza occhio critico da non farmi distrarre troppo da articoli di giornale sensazionalistici.

    20000 anni (non sono sicuro che ci voglia così poco per ripulire la Terra da un massiccio inquinamento radiattivo, https://it.wikipedia.org/wiki/La_Terra_dopo_l'uomo , questa serie tratta l'argomento), in ogni caso anche 20000 anni sono un'eternità in termini di razza umana: pensa solo che 6.000 anni fa la maggior parte dei sapiens viveva praticaemente in una caverna adorando il fuoco o il fulmine.

    Fondamentale nei termini di previsione futura dell' evoluzione insieme alla macchina  è e  il concetto di Singolarità Tecnologica, sopratutto nell' accezzione dello scienziato/romanziere Vernon Vinge. Se non sapessi di che parlo qua trovi dei riferimenti: https://it.wikipedia.org/wiki/Singolarità_tecnologica

    "La vita non è questione morale": su questo non concordo assolutamente. La vita è o etica o non è. Ma così divaghiamo.

    Quello che a me spaventa sono più "gli apprendisti stregoni della scienza", ovvero chi, proprio in quanto ha delle sensibilità etiche sue, o delle eventuali insensibilità etiche, possa in qualche modo, magari per semplice vanità personale, scoperchiare "il vaso di Pandora" della IA, scienziati alla J. von Neumann, insieme ad Alan Turing padre dell' informatica; tutt' oggi i computer seguono lo schema della Macchina di von Neumann, che lui teorizzò concettualmente in un epoca in cui i computer andavano a valvole ed erano grandi quanto stanze. Per capire di chi sto parlando prendo spunto dalla sua wiki : " Già a sei anni intratteneva gli ospiti di famiglia con la sua
    prodigiosa memoria, ripetendo all'istante intere pagine di elenco
    telefonico che gli erano state mostrate solo per pochi istanti o
    eseguendo rapidamente a mente divisioni con due numeri da otto cifre.
    Non contento si divertiva conversando in greco antico, arrivando a padroneggiare, intorno ai dieci anni, sei lingue."
    Di contro von Neumann è lo scienziato, tra le sue eterogenee attività,  che ha calcolato l' esatto punto di detonazione degli ordigni nucleari di Hiroshima e Nagasaki, in modo da poter fare il maggior danno e vittime possibili. Stanley Kubrik ne dà una spassosa fotografia nel suo "il Dott. Stranamore".

    Ecco, forse hai centrato il punto, è l'etica, o forse la non etica, di certi ambienti scientifici che maggiormente mi preoccupa. Non solo con riguardo alla IA ovviamente. 

    Il problema credo di averlo sott' occhio da parecchi anni. :)

    In ogni caso: interessanti considerazioni le tue.

    Una piccola digressione cinematografica conclusiva:






    Scusate ma non sono ancora molto bravo nel citare gli altri utenti sul forum.








  • AmaranthaAmarantha Post: 149
    modificato ottobre 2017
    Spero che l'avvento dell'AI nelle sue forme progressivamente più complesse (e complete) avvenga al più presto. Meglio l'intelligenza artificiale che la stupidità naturale, dicono alcuni.
    Al di là di ogni scherzo, è necessario oltrepassare i limiti dell'umano per permeare e conoscere sempre di più l'Universo. I regressisti, in tal senso, mi fanno veramente schifo; in virtù di un senso di presunta autotutela della razza umana che viene vista, antropocentricamente (e quindi sbagliando) come la "migliore", "superiore" ed erroneamente "insuperabile".
    Non vedo l'ora di testimoniare alle possibilità che porterà l'apertura a nuovi scenari su scala universale dell'intelligenza artificiale. Se è tale, troverà certamente il modo di ottimizzare tutte le risorse disponibili, senza dispendio e sperequazioni tipicamente umane.
    Senza contare che l'Universo morirà prima o poi comunque, avendo un ciclo vitale (il Big Freeze è l'ipotesi più probabile); e l'intelligenza artificiale costituisce l'unica opportunità per tutelarlo e allungarne potenzialmente la vita, interagendo con le leggi della Fisica (vedi sperimentazioni con quasicristalli e materia simile)


    rondinella61Sophia
Accedi oppure Registrati per commentare.
Dona il 5x1000 a Spazio Asperger ONLUS. Codice Fiscale: 97690370586


Ehi, straniero!

Sembra che tu sia nuovo da queste parti. Se vuoi partecipare accedi con le tue credenziali oppure utilizza il modulo di registrazione!

Libro Gratuito "Lo Spettro Autistico risposte semplici" Scarica il libro: Lo Spettro Autistico, Risposte Semplici