La spazzatura elettronica ci sommergerà?

La maggior parte dell’e-waste, comunemente chiamata “spazzatura elettronica”, cioè tutta quella serie di monitor, tastiere, mouse che non utilizziamo più, starebbe andando a finire dritta dritta nei paesi in via di sviluppo, contribuendo, così, a inquinamento e malattie. È quando continuano a denunciare centinaia di attivisti ecologisti in tutto il mondo, secondo cui solo negli Stati Uniti nel 2007 sono stati messi fuori uso (e quindi destinati comunque alla discarica) ben 47 milioni di computer.

Questo significa 47 milioni di tastiere, di mouse, di monitor Crt, di case, di processori… la maggior parte dei quali provenienti dalle aziende. E questo solo per gli Stati Uniti: moltiplichiamo almeno per 8 il numero 47 per ottenere, più o meno, la produzione globale di spazzatura elettronica. Un fenomeno in enorme aumento: basti pensare che nel 1998 erano “solo” 20 milioni i computer buttati ogni anno… e in soli dieci anni il loro numero è raddoppiato.

Ovviamente – dicono in molti – non si può fermare il progresso: sostituire le apparecchiature elettroniche (non solo i computer, ma anche le Tv, gli impianti stereo e così via) significa andare avanti nella tecnologia e arricchire un Paese. Ma dobbiamo stare molto attenti su questo punto, perché al momento meno del 20 per cento di tutta la spazzatura elettronica viene riciclata. Ed è davvero un peccato, se consideriamo che all’interno dei nostri elaboratori elettronici c’è di tutto, dal vetro all’alluminio, dalla plastica ad altre sostanze riciclabili.

Unica nota positiva è che in Europa (al contrario degli Stati Uniti – ma l’Europa produce meno spazzatura elettronica degli Usa) non è possibile esportare scarti informatici nei paesi più poveri o in via di sviluppo. Una situazione, insomma, che andrebbe molto meglio monitorata, perché inizia ad essere un fattore molto pesante per l’inquinamento della terra e la nascita di malattie legate alla presenza di questi materiali, che spesso quando vengono disassemblati diventano tossici. Voi come vi comportate quando dovete sostituire un computer? Lo portate in un’”isola ecologica” per lo smaltimento? O buttate monitor&tastiera (magari non più funzionanti) nel normale cassonetto dell’immondizia?

Come saranno fatti i computer del futuro? Probabilmente avranno microchip chimici, magnetici o ottici

→ D@di per Geekissimo.com

Come saranno i computer del futuro? Di quali materiali saranno costruiti? E quanto saranno veloci? Capita che ci poniamo spesso questa domanda, pensando agli anni a venire. Ebbene: alcune ricerche ultimamente pubblicate stanno dando luogo a un lungo dibattito nella comunità scientifica, perché pare davvero che nel giro di qualche decennio i microchip (che regolano la vita di tutti i nostri sistemi elettronici) potranno essere magnetici, chimici o ottici. Secondo la legge di Moore, il numero di transistor in un chip raddoppia ogni 18 mesi, e di pari passo vanno le prestazioni di un computer. Questa equazione, però, sta per raggiungere i suoi limiti perché la capienza massima dei chip sta per essere raggiunta.

E così, molto presto – addirittura nel giro di un paio di decine di anni – i nostri processori tradizionali fatti di silicio sono destinati completamente a sparire. A favore, ad esempio, dei microchip magnetici. Invece di utilizzare il movimento degli elettroni per elaborare le informazioni, il che dissipa tra l’altro molta energia, c’è chi sta pensando a sfruttare altre caratteristiche degli atomi. Un esempio concreto sono i cosiddetti “computer quantici”, in cui si utilizzano atomi “intrappolati” che variano il loro stato energetico, o quelli “a spin” che utilizzano una particolare proprietà magnetica delle particelle. Questo modo di elaborare le informazioni permetterebbe di effettuare molti più calcoli nella stessa unità di tempo.

Passiamo ora a vedere i microchip chimici, in grado sfruttare diverse caratteristiche di composti per trasmettere le informazioni. Sono allo studio, infatti, molecole che cambiano forma se sottoposte a stimoli particolari, oppure dei calcolatori cosiddetti “metabolici”, che utilizzano reazioni tipiche delle cellule viventi (incredibile!). I primi a entrare sul mercato saranno però i microchip ottici, già presenti in alcune applicazioni industriali.

Invece di muovere le informazioni all’interno di un chip con gli elettroni, gli scienziati hanno scoperto che è possibile utilizzare i fotoni, cioè “pacchetti di luce”, che hanno il vantaggio di essere più veloci e non dissipare calore. Nei modelli ora in costruzione sono ancora gli elettroni a fare i calcoli, mentre i fotoni trasmettono solo i risultati, ma c’è chi sta pensando a computer basati soltanto sulla luce. Unico problema di tutte queste tecnologie che ci fanno sognare? Sono molto, molto più costose di quella al silicio.

Può esistere davvero un’allergia al Wi-Fi?

→ D@di per Geekissimo.com

L’inchiesta di Paul Kenyon (Bbc) “Wi-Fi segnale d’allarme”, trasmessa in Italia da Report (Rai Tre) qualche settimana fa ha riacceso le polemiche sulla pericolosità delle onde elettromagnetiche prodotte dai router Wi-Fi, dividendo la comunità scientifica, come già accaduto con la telefonia cellulare, in apocalittici e integrati. Ebbene, c’è addirittura chi va oltre, spiegando di essere “allergico” all’inquinamento elettromagnetico.

È accaduto a Santa Fe, in New Mexico, dove un gruppo di utenti autodefinitosi “altamente sensitivi” ha chiesto che il Wi-Fi venga bandito in tutti i luoghi pubblici. C’è chi sente un forte mal di testa quando si trova in un punto pieno di radiazioni, chi sente male al petto, chi soffre di tremore alle gambe. Fatto sta che queste persone spesso non riescono ad entrare in luoghi chiusi perché si sentono subito male. E forse questo vorrà dire qualcosa sulla pericolosità o meno degli apparecchi che forniscono internet senza fili.

Di certo – pensiamo in molti – se gli apparecchi Wi-Fi sono stati messi in commercio significa che hanno superato diversi test che hanno dato loro una certa affidabilità dal punto di vista della salute. Però, un po’ come per i telefoni cellulari, il dubbio ci viene: i router Wi-Fi trasmettono onde radio ad alta intensità. Faranno male o non faranno male? Per adesso non ci resta che aspettare i risultati dei primi studi scientifici che arriveranno fra qualche anno. Mentre l’Istituto Superiore di Sanità dice “che non c’è alcuna pericolosità ma bisogna continuare a monitorare la situazione”; per il Cnr “bisogna adottare il principio di cautela perché se ne sa troppo poco”.

E c’è già chi, dopo aver visto il documentario su Rai Tre, si sta rivolgendo alle compagnie telefoniche o a commercianti di prodotti d’informatica per eliminare il Wi-Fi dalla propria casa e ristabilire il vecchio (e ormai quasi “antiquato”) cavo di rete. Che poi, tra l’altro, se lo eliminiamo da casa nostra il problema non cambia: se abitate in un “normale” palazzo in una città, provate a fare una ricerca delle reti wireless: ormai se ne trovano a decine. Che ne pensate? Avete mai affrontato l’argomento, in famiglia o con i vostri amici/colleghi?

Nel 2020 i data-center inquineranno più delle compagnie aeree

→ D@di per Downloadblog.it

Se la situazione attuale non cambierà, i data center con ogni probabilità nel 2020 sorpasseranno l’industria aeronautica in una non bella classifica: quella dei principali produttori di gas serra. Lo rivela uno studio di McKinsey & Co ripreso anche dal New York Times.

Lo studio si sofferma maggiormente sulle opportunità di risparmio dei costi e di energia che oggi vengono completamente sprecate nei data center aziendali e governativi. Per esempio, i server sono utilizzati in media solalmente al 6 per cento della loro capacità e al 56 per cento della loro performance massima.

Se allo stesso modo – sottolineano i ricercatori – si comportassero ad esempio gli alberghi, questi chiuderebbero per bancarotta pochissimo tempo dopo la loro apertura. Addirittura, la moda di sfruttare poco i data center sarebbe una moda molto moderna.

In passato, all’epoca dei mainframe, i data center erano in fatti più efficienti, anche se meno flessibili; ora che i server, invece, utilizzano le tecnologie standardizzate dell’industria dei personal computer, è tutto più flessibile ma anche fuori controllo.

Come risolvere, allora, il problema? Secondo gli studiosi le aziende dovrebbero porsi l’obiettivo di raddoppiare in tempi brevi (entro il 2012) l’efficienza dei propri data center, dall’utilzzo di software per la virtualizzazione a un controllo integrato delle unità di raffreddamento.

Altrimenti nel 2020 se gli sprechi continueranno ad aumentare, i server andranno a inquinare di più (in termini di energia, trasporto, costruzione, pezzi di ricambio, etc) di quanto non faccia, annualmente, una compagnia aerea tradizionale.

Le informazioni contenute sui nostri computer sono molto più a rischio di quanto pensiamo

→ D@di per Geekissimo.com

È allarme sicurezza per i nostri fedeli computer. Secondo alcune nuove ricerche, infatti, i dati contenuti sarebbero molto più vulnerabili di quanto pensiamo. Ad esempio: lo sapevate che è possibile recuperare abbastanza facilmente tutti i dati contenuti nella Ram? Questa sorta di “memoria volatile”, che come sappiamo tutti immagazzina i dati solo durante il funzionamento del computer, in realtà non li cancella allo spegnimento della macchina.

Alcuni dati importanti, come addirittura le chiavi che servono a decrittare i dati contenuti sull’hard-disk, vengono conservati per diversi minuti dopo lo spegnimento. La crittatura dei dati è uno dei metodi principali con i quali aziende ed enti proteggono il proprio materiale; la scoperta di questi lunghi tempi in cui le chiavi di decrittatura rimangono nella Ram sta mettendo ora in allarme numerosi esperti di sicurezza informatica.

Facciamo un esempio: perdiamo o ci viene rubato il portatile. Sia che questo sia acceso, che sia in standby, basterà togliere e riattaccare la corrente per avere accesso a tutti i dati della memoria, comprese le password: “Quando un computer viene ‘risvegliato’ da uno sleep-mode – spiega Edward Felten, docente all’università di Princeton – cerca immediatamente di proteggere i propri dati. Se, però, durante questa operazione si toglie la corrente e poi la si riattacca, i dati non vengono più protetti e sono lasciati in chiaro nella memoria”. E questo è solo un esempio.

Raffreddare il laptop, addirittura, fino a 50 gradi sotto zero manterrà la memoria per circa dieci minuti. Ma allora, come dobbiamo comportarci se abbiamo delle informazioni confidenziali sul nostro portatile e sappiamo di dover andare in un luogo pubblico come un café, una biblioteca o sul treno? “Spegnete l’apparecchio e aspettate almeno dieci minuti prima di esporvi a rischi – raccomanda Felten – perché bloccando semplicemente lo schermo o mettendo il sistema in standby o ibernazione non serve a nulla dal punto di vista della sicurezza”.

Rai: “Paghi il canone della Tv anche chi ha solo il computer”. Ed è polemica

Quando si tratta di pagare l’abbonamento alla televisione – siamo onesti – non bastano le pubblicità della “Rai, di tutto di più” per convincerci. In molti vedono nell’abbonamento alla Rai un inganno, per programmi sempre meno di qualità (rispetto ad alcune private o alle satellitari) e pubblicità sempre più padrone dei palinsesti. Ma ovviamente si tratta di una legge, che va rispettata. L’articolo pubblicato ieri da Repubblica rischia, però, di alzare ancora di più un polverone proprio sulla televisione di stato e il suo ufficio abbonamenti.

Sembra, infatti, che anche chi ha solo il computer (e magari non ha il televisore) debba pagare l’abbonamento, perché potrebbe vedere la televisione o ascoltare la radio tramite schede di ricezione o internet. E ovviamente già si preparano ricorsi a raffica, che già stanno arrivando agli uffici amministrativi competenti, grazie anche all’intervento delle associazioni dei consumatori. Ma cosa dice la legge in merito?

La questione, si legge nell’articolo di Federica Cravero, è regolamentata da un Regio decreto del ‘38, secondo cui deve pagare il canone “chiunque detenga un apparecchio adatto o adattabile alla ricezione delle radioaudizioni“. Questo significa che anche un computer con una scheda di ricezione Tv o un videofonino possono essere adattati a ricevere la televisione. E infatti, quando la Rai invia le lettere che chiedono il pagamento del canone, ricorda sempre che sono considerati apparecchi in grado di ricevere la televisione anche “personal computer, decoder digitali e altri apparati multimediali”. Definizione, dunque, altrettanto vaga.

E come la mettiamo con chi, invece, guarda i programmi della Rai proprio sul sito della Rai? E per chi guarda spezzoni su YouTube o scarica pezzi di trasmissioni da software peer-to-peer? E chi ascolta – per fare un esempio – il programma di Fiorello su Radio2 grazie allo streaming Web? Insomma, la tecnologia avanza e le regole – vecchie di settant’anni – vengono interpretate in modo sempre più strampalato. Tra l’altro, spiega l’ufficio stampa Rai, non bisogna prendersela con la televisione pubblica: “È la legge a stabilire chi deve pagare il canone. Il canone televisivo è una tassa che viene pagata allo Stato in base alla legge e che lo Stato poi riversa alla Rai grazie al contratto di servizio”. Staremo a vedere. Nell’incertezza, voi come vi comportate?

Acceso in Germania il computer (civile) più veloce del mondo

→ D@di per Downloadblog.it

Smanettoni e super-modificatori di Pc, questa notizia è per voi. Ieri presso il centro di ricerca avanzata di Juelich, nella regione tedesca Nordreno-Vestfalia, è stato attivato il computer civile più veloce del mondo.

Nome in codice Jugene, può fare 167.300 miliardi di operazioni al secondo (pari a 167,3 teraflop/s) pari, più o meno, alla capacità di calcolo di 20mila Pc tradizionali oggi in commercio.

A vedere le immagini sembra di essere tornati un po’ al passato, quando i computer erano grandi come stanze: pensate che Jugene è composto da 16 blocchi grandi come una cabina telefonica, contenenti 65mila microprocessori.

Il supercomputer è prodotto dalla Ibm e sarà il punto nodale del progetto Prace (Partnership for Advanced Computing in Europe), un consorzio tra centri nazionali per supercomputer di 14 stati europei, con l’intento di fornire alla ricerca avanzata capacità di calcolo superiori a quelle raggiungibili a livello nazionale. Al progetto partecipa anche l’Italia.

“Rigenerare” i vecchi Pc: un bel gesto nei confronti dell’ambiente

→ D@di per Geekissimo.com

Come vi comportate, quando comprate un nuovo computer, nei confronti di quello vecchio? Ormai non si fa altro – finalmente e giustamente, direi – che parlare di rispetto per l’ambiente e di risparmio energetico, e come sappiamo spesso e volentieri gli apparecchi tecnologici che tanto ci piacciono quando arrivano alla fine del loro ciclo di vita sono sempre alquanto difficili da smaltire. L’idea di parlare di tecnologia ed ecologia mi è venuta da questo articolo di C|Net News, in cui vengono messe a confronto le opinioni di diversi esperti verso il ricondizionamento o il riciclo totale di un computer. E a vincere sembra proprio il ricondizionamento (o la rigenerazione, che dir si voglia): il modo più semplice, economico ed ecologico per riciclare.

Ricondizionare offre, secondo molti esperti, la migliore alternativa alla crescita incondizionata della spazzatura elettronica (la cosiddetta e-waste, di cui ci siamo tra l’altro già occupati) in tutto il mondo. Per rimettere a nuovo un Pc, infatti, non vengono utilizzate le enormi quantità di energie che servono a distruggere i materiali di cui questo è composto: quando mandiamo un computer al riciclo, infatti, il riciclaggio consuma circa 20 volte l’energia necessaria per riutilizzare lo stesso computer.

I computer rigenerati, inoltre, sono molto ambiti. Da chi? Beh, certamente non dagli “smanettoni” e da coloro che hanno bisogno sempre dell’ultimo ritrovato. Ma dalle scuole, dalle università, dagli uffici pubblici e dalle biblioteche dove, ad esempio, sono necessari Pc anche vecchi e poco potenti per gestire il prestito e il catalogo. O, ancora, da genitori che vogliono regalare un primo computer ai propri ragazzi o dagli anziani che si avvicinano per la prima volta al mondo dell’informatica. Riciclare un Pc rigenerandolo è però una pratica ancora poco conosciuta da noi in Italia, come probabilmente anche nel resto del mondo.

Tra l’altro esistono numerose aziende che si occupano proprio di rimettere a nuovo (un po’ come i concessionari che trattano auto usate) i computer. Sono curioso di sapere il vostro parere a riguardo: come vi comportate quando cambiate computer? Riciclate i pezzi “vecchi”, li buttate o li portate in posti dedicati? E, ancora: se un vostro parente avesse bisogno di un Pc “solo per scrivere e controllare la posta”, gli consigliereste di comprare un computer ricondizionato?

C’è qualcosa nell’aria: un MacBook sottile sottile e un po’ di delusione

C’era davvero qualcosa nell’aria. I tanti fan della Mela che da giorni s’interrogavano sulle novità che sarebbero uscite dal Keynote di ieri di Steve Jobs al Macworld di San Francisco per una volta “c’hanno preso”. La novità principale, infatti, è stata la presentazione del nuovo MacBook Air: un computer portatile sottile sottile (“il più sottile del mondo”, rassicura Jobs) che con i suoi 4mm nel punto più sottile, l’altezza massima di 19 millimetri e il peso 1,26Kg sembra davvero un piccolo gioiellino. MacBook Air offre uno schermo widescreen con retroilluminazione LED da 13,3 pollici, una tastiera retroilluminata (perfetta, spiegano da Apple, per gli ambienti con scarsa illuminazione quali aerei, studi e sale conferenza, grazie a un sensore di luce ambientale integrato), la Webcam iSight integrata, un trackpad con supporto multi-touch (che si può usare, un po’ come l’iPhone, per ingrandire, ruotare e scorrere pagine e foto).

Per quanto riguarda le specifiche tecniche, MacBook Air monta un processore Intel Core 2 Duo a 1,6GHz o 1,8GHz con 4Mb di cache L2 e include come standard 2GB di memoria, un disco da 80Gb a 1,8 pollici e le tecnologie Wi-Fi 802.11n e Bluetooth 2.1. Ci siamo dimenticati di parlare dell’unità ottica? Proprio no: Air, infatti, non è provvisto di masterizzatore/lettore cd/dvd. Questo, ovviamente, per risparmiare spazio (il lettore è comunque acquistabile a parte) e poi, spiega Jobs, perché con la tecnologia Wi-Fi tutto questo è superato. Per ascoltare un cd, guarda un dvd o installare un software è possibile utilizzare un altro Pc o Mac disponibile dove ci troviamo. Air riconoscerà automaticamente il cd inserito nell’altro computer e lo leggerà normalmente. E qui diciamo subito che si tratta un po’ di una prima pecca: è vero che cd e dvd sono sempre meno usati, ma è anche vero che se ci troviamo fuori casa e non abbiamo a disposizione nessun computer con unità cd… sono guai.

Altra pecca a mio avviso è l’assenza di porte fondamentali come quella Ethernet e la presenza, oltre all’uscita per le cuffie e a quella micro-DVI, di una sola porta Usb (2.0, ovviamente). Per questo il prezzo ci sembra un tantino alto: in Italia dovrebbe partire da 1699 euro come versione base. Sicuramente sarà un gioiellino bellissimo da vedere, sicuramente sarà leggerissimo da portare dietro… ma senza Ethernet, con una sola porta Usb e senza drive ottico probabilmente risulta un portatile un po’ menomato. Almeno per il mercato italiano, dove le reti Wireless non sono ancora così diffuse come forse negli Stati Uniti.

Durante il Keynote sono state, ovviamente, presentate molte altre novità. Come (e questa ci sembra davvero interessante) la possibilità di noleggiare film su iTunes (moltissime le case che già hanno aderito, da Warner Bros a Disney, da Paramount a Universal, da Touchstone a Miramax, da Mgm a Sony, solo per citare le più famose). Si partirà con più di mille film disponibili dopo 30 giorni dall’uscita del Dvd. Il noleggio costerà dai 2,99 ai 3,99 dollari e, una volta noleggiato, bisognerà finire di guardare il film entro 24 ore. La funzionalità arriverà in Italia nei prossimi mesi.
Insieme ad iTunes, aggiornata anche la Apple Tv, che arriva alla seconda versione (per chi già la possiede, basterà un aggiornamento software gratuito per rinnovarla): la novità principale è che sarà possibile scaricare i film senza computer, direttamente da internet, e guardarli sul televisore. Il prezzo scende a 229 dollari. La nuova Apple Tv porta con sé una qualità DVD e HD e il Dolby 5.1.

Altra novità è Time Capsule. Si tratta di un hard-disk esterno (da 500Gb o 1Tb) che fa anche da base wireless Airport Extreme. Utilissimo, spiega Jobs, per effettuare i backup con Leopard e Time Machine in automatico e senza fili. In effetti, in molti lamentavano il fatto che per utilizzare il servizio Time Machine (che effettua ogni giorno il backup del sistema) fosse necessario per forza un disco esterno. Anche in questo caso ci vien da pensare che, visti i prezzi degli hard-disk esterni di altre marche concorrenti, i 299 o 499 dollari ci sembrano un po’ eccessivi. Infine – e qui forse noi italiani rimaniamo un po’ a bocca asciutta – un po’ di delusione per le novità provenienti dall’iPhone: ci aspettavamo una nuova versione con più potenza, più spazio a disposizione e, soprattutto, capacità di collegarsi alla rete Umts. Invece, sono state annunciate solo alcune piccole novità (grazie alla triangolazione delle reti cellulari, la funzione Maps riconoscerà la zona dove ci troviamo; possibilità di creare link diretti, nella pagina principale, ai siti internet che visitiamo più spesso, per citare le due più importanti).

Un Keynote sicuramente interessante, che ha portato con sé sicuramente dei prodotti rivoluzionari. Ma forse, rispetto agli anni passati, ci aspettavamo qualcosina di più. Tra l’altro c’è da notare un brusco crollo delle azioni Apple a Wall Street, che ha perso 9,74 punti (-5,45 %), segno forse che c’erano aspettative maggiori. Ora ovviamente vedremo come reagirà il mercato. Passiamo a voi la palla. Che ne pensate di tutte queste novità? Vi aspettavate qualcosa in più, magari sul fronte dell’iPhone? Pensate di fare qualche acquisto appena questi prodotti arriveranno in Italia?

I tecnici dei computer possono guardare nei nostri hard-disk?

D@di per Geekissimo.com

La domanda ce la saremo fatta tutti almeno una volta nella vita, se abbiamo dovuto mettere il nostro computer in mano altrui per una riparazione o un’installazione di nuovo hardware. Probabilmente non se l’è posta Declan McCullough, che ha affidato il proprio computer a un centro di assistenza tecnica per installare un nuovo drive Dvd. Il tecnico, dopo aver installato il Dvd, ha voluto provare se tutto funzionasse e si è imbattuto in una cartella con un nome un po’ particolare presente sul disco rigido.

Apertala, si è trovato di fronte a un archivio di file pedo-pornografici. Immediatamente, l’azienda per cui lavora il tecnico ha informato la polizia e il ragazzo è stato rintracciato e, dopo poche ore, arrestato. Assunto che il materiale pedo-pornografico è vietato dalla legge (e quindi l’arresto è stato più che giusto) la questione che si è aperta è piuttosto un’altra: il tecnico doveva guardare all’interno del Pc del ragazzo? E perché?

La questione, ovviamente, è andata a finire in tribunale, e mentre il primo grado ha dato ragione al ragazzo, il secondo invece ha dato ragione al tecnico. In particolare, la corte d’appello ha spiegato che il ragazzo aveva affidato in toto il computer al centro riparazioni, e quindi il tecnico aveva il diritto di utilizzare tutte le funzioni del computer, compresa l’apertura di file video presenti sull’hard-disk, per verificare il corretto funzionamento.

Certo, controbatte l’accusa, se il lavoro era quello di installare un lettore Dvd… che c’entra l’hard-disk? A mio parere il comportamento del ragazzo, cioè la detenzione di immagini di pedofilia, è assolutamente terribile; però non sono nemmeno d’accordo che un tecnico possa tranquillamente andarsene in giro per i nostri hard-disk e guardare tutti i file che abbiamo. Come sempre in questi casi, la questione è spinosa è la ragione sta un po’ in mezzo alle due posizioni. Mi piacerebbe sapere qual è la vostra opinione in merito.

La spazzatura elettronica non va a finire dove credi

Mandare al riciclo vecchi e obsoleti computer e periferiche non aiuta l’ambiente come si penserebbe. Lo rivela un’inchiesta della Cnn, secondo cui, invece, questa pratica constribuisce a mettere in pericolo lavoratori e ambiente in Cina, India e Nigeria, tra i primi paesi dove va a finire tutta la “spazzatura elettronica”, o “e-waste”, dell’Occidente. Secondo una recente stima, tra il 50 e l’80 per cento delle circa 400mila tonnellate di materiale elettronico destinato al riciclo va in realtà a finire in queste zone povere del mondo.

Lì, centinaia di lavoratori senza precauzioni (tra cui molti bambini) utilizzano quello che possono (come martelli e fiamme ossidriche) per aprire le periferiche obsolete ed estrarne metalli e vetro, esponendo se stessi a un pericolosissimo cocktail di sostanze nocive. Certo, in effetti i pezzi vengono riciclati. Ma purtroppo vengono riciclati nella maniera più pericolosa possibile: si preserva l’ambiente dell’Occidente per contaminare quello dell’Oriente.

Il problema, ovviamente, non è dei proprietari delle aziende o dei singoli cittadini. Questi, nella maggior parte dei casi, si affidano ad aziende specializzate nel riciclo. Solamente che molte di queste aziende, invece di effettuare un riciclo nel rispetto dell’ambiente, mettono tutto in grossi container che vengono poi inviati in sedi periferiche in Oriente e in Africa, dove poi purtroppo avvengono queste pratiche. Tra i paesi più inquinati c’è sicuramente la Cina, considerata da molti ambientalisti come “la terra promessa dell”e-waste’”. Una Cina che attualmente produce circa un milione di tonnellate di spazzatura elettronica e che, purtroppo, ne riceve una quantità molto maggiore da molti Paesi occidentali.

Cosa fare per evitare che questa pratica continui? Sicuramente i governi nazionali devono stipulare accordi più efficaci per regolare questo traffico di rifiuti che potrebbero a mio avviso essere gestiti e considerati come “pericolosi”. I responsabili delle grandi aziende (ma anche i singoli cittadini), poi, dovrebbero cercare (ma sappiamo quant’è difficile) di affidarsi ad aziende serie che possano dare garanzie sull’effettiva destinazione dell’”e-waste”. Voi vi siete mai trovati nella situazione di dover riciclare pezzi di computer o altro materiale elettronico? E come vi siete comportati?

Sentenza italiana crea precedente nel mondo della tecnologia

Un giudice di pace di Firenze, Alberto Lo Tufo, sta per diventare famoso in tutto il mondo per una sentenza, depositata poche settimane fa in cancelleria, che apre un precedente sul fronte dei software pre-installati nei computer nuovi. La storia è più o meno questa: un utente italiano che aveva acquistato un computer Compaq si è ritrovato sullo stesso – pur avendo specificatamente spiegato di non esserne interessato – Windows Xp e Microsoft Works.

Sul contratto di licenza (EULA) c’era scritto chiaramente che se l’utente non voleva avvalersi della licenza dei software pre-installati, poteva richiederne il rimborso al produttore. Strano ma vero, dopo una battaglia legale così è stato: il giudice ha dato ragione all’utente, che ha ricevuto indietro dalla casa produttrice del computer 90 Euro per Windows Xp e 50 Euro per Works (più ovviamente il rimborso delle spese processuali).

Inizialmente la Hp (proprietaria del marchio Compaq) aveva negato la possibilità di un rimborso, citando una fantomatica “inscindibilità tra struttura hardware e software”. Il giudice, invece, ha riconosciuto “la scindibilità tecnica tra struttura del computer e sistema operativo presente su di esso”, perché questi prodotti vengono dalla casa “direttamente installati apportandovi gli opportuni cambiamenti, tanto da dar luogo a una versione specifica dell’originale da considerarsi diversa da quella del produttore di hardware (Oem)”.

Una sentenza, dunque, che si può definire “storica” nell’eterna lotta tra case produttrici (che producono spesso e volentieri solo computer con software già installato e configurato) e utenti, che possono avere esigenze diverse da quelle degli utenti “standard” definiti dalle case produttrici. Siete d’accordo?

Migliora la durata delle batterie in Vista

Vi ricordate quando, qualche tempo fa, parlammo del fatto che Windows vista “si ciba” di batterie? Ora è arrivata un’utility (freeware) chiamata Vista Battery Saver che permette di estendere la durata della batteria dei vostri laptop, andando a disabilitare (quando il nostro computer sta andando, appunto, a batteria) alcuni servizi non necessari come Aero (la nuova interfaccia grafica) e Windows Sidebar.

Una volta ricollegato il computer alla presa di corrente, ovviamente, i servizi verranno automaticamente riabilitati. Certo, il risparmio previsto non è moltissimo (dall’1 al 4 per cento di batteria) ma alzi la mano chi non si è mai trovato nel mezzo di un lavoro importantissimo… senza più nemmeno un goccio di energia!

Crash per i computer della stazione spaziale internazionale

Paura ieri per un crash ai computer della Iss, la Stazione Spaziale Internazionale russo-statunitense, anche se – spiegano dalla Nasa – gli astronauti non hanno mai corso seri rischi. “Un crash del genere non si era mai visto”, hanno ammesso i tecnici, aggiungendo che sono andati in tilt i sistemi che controllano l’orientamento della navicella e le scorte di ossigeno e acqua (dunque non proprio inutili!).

Se non si riuscisse a riparare il danno (che dovrebbe però essere risolto nel giro di due o tre giorni) gli astronauti avrebbero comunque un’autonomia di 56 giorni prima di dover abbandonare la stazione.

Non è la prima volta che accade una cosa del genere, ma di solito un reboot metteva tutto a posto. Non questa volta, però. Vogliamo consigliare agli amici della Iss un nuovo sistema operativo?

Vista si ciba di… batterie

Negli ultimi tempi si moltiplicano le proteste di utenti di Windows Vista che si lamentano del fatto che le batterie dei laptop equipaggiati con il nuovo sistema operativo di Microsoft durino molto poco. Tra i punti di forza di Vista, almeno sulla carta, infatti, ci sarebbe una migliorata gestione del risparmio energetico.

Questo, però, non avviene se si utilizza il motore grafico Aero, che è il primo tra i processi che “succhiano” più batteria. Certo, è bello poter lavorare con numerose migliorie grafiche e transizioni animate quando si passa da un’applicazione all’altra. Il problema è che se si è fuori casa la batteria durerà davvero poco; se Aero, invece, non è attivo non ci saranno problemi.

Il colmo è che coloro che hanno speso una grande quantità di denaro per comprare portatili molto potenti proprio per ottenere il massimo delle prestazioni da Vista, per preservare la durata della batteria sono costretti ad abbassare le prestazioni grafiche, utilizzando così una versione di Vista equivalente a quella Basic.

Per ovviare al problema, alcune aziende (come la Hp, ad esempio) hanno deciso che forniranno un proprio software di gestione del risparmio energetico al posto di quello del sistema operativo, attraverso il quale si potrà scegliere se risparmiare energia o ottenere grandi performances.

E voi che ne pensate? Avete riscontrato lo stesso problema? E quale accorgimenti mettete in atto per evitare di restare col portatile spento dopo meno di un’ora di lavoro?