Una nuova esperienza di avvio per Ubuntu Karmic Koala

Nonostante le prime indiscrezioni all’inizio di quest’anno dessero per scontata l’inclusione di Plymouth in Ubuntu 9.10, allUDS di Barcellona si è chiarito che tale soluzione, già adottata da Fedora, non entrerà a far parte di Karmic Koala.

Il team di sviluppo della distribuzione umana ha infatti espresso in quell’occasione l’intenzione di volersi concentrare sull’ottimizzazione della velocità di avvio, ritenendo inutile l’integrazione di un software come Plymouth in un contesto dove il sistema è pronto all’uso prima che si possa inizializzare lo splash grafico.

Tuttavia il proposito di regalare all’utente un’esperienza “flicker free” durante l’avvio del sistema operativo, anche per mantenersi al passo con le altre distribuzioni, non è stato del tutto abbandonato, ma piuttosto riadattato per non confliggere con le migliorie che verranno apportate all’intera fase di boot.

L’idea

Come riportato da Mat Tomaszewski in un messaggio sulla mailing list di Ubuntu Artwork, il progetto includerà

  • grub2, che però rimarrà invisibile all’utente e richiamabile tramite la pressione del tasto Shift durante l’inizializzazione del bootloader
  • Kernel Mode Setting
  • Una schermata di caricamento che girerà direttamente su X.org e non più basata su Usplash
  • La scelta del sistema operativo da far partire avverà in modalità grafica, sempre su X.org, richiamabile con la pressione del tasto ESC
  • GDM 2

L’obiettivo è quello di far partire X in massimo 3 secondi, così da avere fin da subito tutto lo stack grafico disponibile, compreso di accelerazione hardware che permetterà di sbizzarrirsi con animazioni ed effetti grafici e, grazie al KMS, la transizione da una schermata all’altra sarà indolore.

Uno schema chiarisce esattamente come sarà organizzata la sequenza standard di avvio

boot-sequence-gdm

Sono già state dettate le linee guida per la creazione di nuovi temi e approntato uno spazio per raccogliere le proposte che arriveranno in questi mesi di sviluppo e sul quale è possibile già visionare qualche iniziale esperimento sotto forma di semplici e rudimentali animazioni.

My 2 cents

L’idea non è affatto malvagia e ammetto che mi affascina, non vedo l’ora di metterci le mani sopra ed avere un feedback diretto.

Ci si potrebbe già chiedere a quali problemi di compatibilità potrebbe portare questo approccio su alcune macchine con scarse risorse o per le quali non sono disponibili driver compatibili al 100% con tutte le tecnologie impiegate, ma sembra che i meccanismi di fallback siano già stati teorizzati ed alla bisogna dovrebbero entrare in funzione per garantire il corretto funzionamento anche in questi casi.

Tutto questo a condizione che tale meraviglioso meccanismo venga implementato in Karmic secondo quanto previsto, non sarebbe la prima volta in cui Ubuntu promette e poi non mantiene…

CPU multicore sottoutilizzate, un possibile approccio

In tempi recenti il mercato dei processori ha spostato il campo della competizione dalla gara ai Ghz a quella della quantità di core presenti su ogni singolo die, dunque ci ritroviamo a poter acquistare CPU che presentano un elevato livello di complessità e altrettanto in termini di prestazioni.

Una cpu a quattro core, image courtesy Black Lawrence

Tale scelta è stata dettata principalmente dall’ormai prossimo raggiungimento del limite fisico dei processi di costruzione dei processori e per evitare che i nostri computer si debbano dotare di impianti di raffreddamento ad azoto liquido :D

A cosa mi servono tutti questi core?

Insane coding ci dà il LA per rilfettere su questo trend, soprattutto dal punto di vista di un utente domestico che utilizza il PC prevalentemente per la navigazione in internet, videoscrittura, visualizzazione ed encoding di filmati e magari qualche partita al proprio videogame preferito.

Senza addentrarci troppo in ambito strettamente tecnico, ci sono alcuni utilizzi che possono beneficiare della presenza di più core all’interno di una stessa CPU, per esempio la manipolazione  di contenuti multimediali o la compilazione di codice sorgente, e naturalmente la gestione di più processi attivi contemporaneamente, quest’ultima supportata dal sempre minor costo della memoria di sistema.

Tuttavia ci sono altre applicazioni che non traggono grandi benefici dalla presenza di core multipli, quindi se vi limitate alla scrittura di documenti o similari, dimenticavi incrementi sensazionali in confronto a cpu tradizionali.

La chiave di volta si chiama Multiseat

Ai giorni nostri non è più così inusuale trovare in casa più di un computer, ognuno dei quali dotati di un proprio case, scheda madre, processore, memorie, monitor, mouse e tastiera.

Ma allora perché non usare tale potenza inespressa fornitaci dalle moderne CPU al fine di creare una postazione multiseat e sfruttare al meglio tale potenziale ( e magari risparmiare pure qualcosa ) ?

Una postazione multiseat, image courtesy Wikipedia

L’idea è quella di rendere disponibile un unico computer a più utenti contemporaneamente, ognuno dotato delle proprie periferiche di input e di output, come se ognuno avesse la propria postazione non condivisa.

Ok, mi piace l’idea, e ora?

A livello hardware la realizzazione tecnica non è poi così complessa, oramai la maggior parte dei computer è dotato di innumerevoli porte per la connessione di periferiche, e non è più così strano trovare configurazioni multi-GPU. Anche se in alcuni casi sicuramente un po’ scomodo, con alcuni accorgimenti un approccio del genere permetterebbe di poter risparmiare qualche centinaio di euro, soprattutto in presenza di più di due utenze.

Tuttavia è a livello software dove le cose si complicano.

Su Linux tale approccio esiste da tempo, ma sarebbe interessante poter avere una distribuzione capace senza troppi sforzi di poter configurare una postazione del genere, o magari semplicemente qualche strumento da integrare a distribuzioni già esistenti, comodamente disponibili quale opzioni su GNOME o KDE, giusto per citare i due DE più diffusi.

In rete esistono diversi HOWTO per raggiungere lo scopo, anche se sul wiki di X.org se ne sconsiglia l’uso in favore di MDM, applicazione creata ad hoc.

Inoltre al momento credo proprio che ci sarebbero dei problemi nella gestione dei driver in tali condizioni di utilizzo, principalmente per quanto riguarda l’audio ( anche se i jack alla fine non mancano ) o periferiche di tipo diverso da quelle gestite da X.org.

Considerazioni

Certamente una soluzione di questo tipo sarebbe caldamente consigliata all’interno di biblioteche, aule studio ed uffici o in generale in quei locali in cui è richiesta una grande quantità di computer in uno spazio comune condiviso, magari formato da postazioni attigue.

Il risparmio in termini di hardware potrebbe essere consistente, oltre che nei succitati contesti, anche in quelli casalinghi ove fossero presenti più di due utilizzatori.

Le future tecnologie di comunicazione wireless tra periferiche e PC potrebbero dare una spinta in questa direzione, portando ad un migliore supporto al multiseat sui sistemi operativi general purpose.

In ogni caso farò un tentativo con gli strumenti a mia disposizione sul mio notebook, così da poter finalmente ottenere l’uso esclusivo del computer più potente in casa, che al momento è ad appannaggio di madre e sorella e relegato a servire pagine di giochini in flash -_-‘

Opinioni, idee e critiche sono ben accette.

P.s. Si ringrazia neon che mi ha fornito alcuni chiarimenti tecnici ;)

Anime che seguo: Eden of the East

Quando ho un po’ di tempo libero, tra le mie tante passioni, mi diletto a guardare anime giapponesi, molti dei quali ancora non hanno visto la luce in Italia.

Oggi vorrei farvi partecipi di una serie di cartoni che ho trovato molto interessante e che consiglio a tutti di procurarsi.

Come avrete intuito dal titolo del post, il suo nome è Eden of the East.

La sigla iniziale

La trama

e_o_t_eLunedì 22 novembre 2010 dieci missili colpiscono il Giappone, senza mietere alcuna vittima. Tale giornata verrà in seguito ricordata come  “Careless Monday”. Tre mesi dopo Misaki Mori, una studentessa giapponese in viaggio a New York, si imbatte per caso in un ragazzo dall’identità sconosciuta davanti la Casa Bianca, nudo e solo con un cellulare ed una pistola in mano, che la salva da un’incomprensione con la polizia. I due rientrano in Giappone, ma il ragazzo si darà ben presto alla ricerca della sua identità.

Senza andare a svelare troppi dettagli della storia, il protagonista si ritroverà all’interno di un perverso gioco mortale organizzato da un fantomatico Mr. Outside. Quest’ultimo ha scelto dodici persone dotandole di un cellulare ed un credito di 10 miliardi di yen ( un sistema chiamato Noblesse Oblige ), incaricando tale Selecao ( così vengono chiamati i prescelti ) di salvare il Giappone. Dall’altro capo del telefono risponde Juiz, una concierge che esaudirà ogni richiesta dei possessori dello speciale telefono, scalando di volta in volta il credito a disposizione.

Ma le regole di questo gioco sono alquanto spietate e ben presto ci si ritroverà coinvolti in una spirale di eventi imprevedibili.

Perché mi piace

Eden of the East è veramente un anime originale, visivamente piacevole e con una trama che tiene con il fiato sospeso fino all’ultimo episodio.

Ha una colonna sonora di tutto rispetto e la canzone dell’intro è nientemeno che Falling Down degli Oasis.

E voi, cosa fareste con un telefono che esaudisce ogni vostra richiesta e 10 miliardi di euro?

Di come Linux ha salvato il mio PC

Uno dei motivi per i quali mi piace GNU/Linux è l’ intrinseca possibilità di poter configurare ogni piccolo dettaglio del sistema.

Ultimamente tale caratteristica mi è tornata molto utile e mi ha permesso di continuare ad avere un computer usabile.

Recentemente, infatti, la scheda grafica del mio portatile ha deciso che era arrivata la sua ora,  lasciandomi con una schermata nera al caricamento del desktop, indistintamente su Linux e Windows.

Mi era possibile usare solamente la console di ripristino su Ubuntu, richiamata dall’apposita voce nel bootloader, oppure la modalità provvisoria sul sistema di Microsoft. Ho dunque dedotto che il problema fosse legato ai driver che, accedendo ad una sezione danneggiata del chip grafico, portavano all’immediato blocco del PC.

Su entrambi i sistemi operativi ho perciò provveduto a disinstallare i driver ATi e, utilizzando le controparti generiche, mi è stato possibile caricare la scrivania. Tuttavia tali driver non supportano le risoluzioni widescreen, e proprio una di queste ultime ( 1440×900 ) è quella nativa del mio pannello LCD.

La lentezza esasperante per ogni operazione di ridisegno su schermo e l’impossibilità di tenere lo sguardo sul display per più di 10 minuti per una insostenibile sfocatura dell’immagine mi avevano portato alla rassegnazione di utilizzare esclusivamente Linux da console. Avevo persino installato elinks, un browser per il terminale, al fine di poter almeno controllare la posta elettronica e i feed.

Poi l’illuminazione.

E se la sezione daneggiata fosse quella dedicata all’accelerazione 3D? In effetti gli artefatti che apparivano sporadicamente prima del completo cedimento suggerivano proprio questa ipotesi…

Allora su Linux ho reinstallato i driver ATi opensource e disattivato DRI inserendo l’apposita stringa

Option "DRI" "off"

nella sezione Device di xorg.conf.

Morale della favola,  sono tornato ad usare il mio sistema quasi come se nulla fosse accaduto e ho risparmiato i soldi di un eventuale nuovo pc ( eh, la crisi ) e questo solo grazie alla succitata flessibilità di un certo sistema operativo.

Adoro GNU/Linux.