Upstart in Ubuntu 6.10, codenamed Edgy Eft.

Giusto per capire la differenza fra init e il nuovo Upstart in Edgy:

A dependency-based init daemon would start networking because it’s a dependency of the Apache goal, and would mount the filesystems because they are a dependency of both the Apache and gdm goals. If either gdm or Apache fail to start, this means that networking won’t be available unless it itself is a goal.

An event-based init daemon works the other way around; it starts off with a single event such as “startup” and everything else will be run by that or subsequent events. An event-based init daemon has no need for goals or runlevels, the system will boot as far as it can get with the available hardware; for a distribution, this means that the default installation can be far more flexible.

Networking will always be started if networking hardware is available, assuming the default configuration is for DHCP to be attempted. As with the dependency-based system, if no hardware is connected at boot time, Apache still won’t start. However, with an event-based system, if the network card is plugged in a few minutes later, once it’s been retrieved from the back of the sofa, Apache would be started automatically.

[Via linux.com]

Repubblica on line, chi è chi?

Ma si può scrivere un titolo simile?

Brevetto iPod, Apple pagherà 100 milioni a una società di Singapore

Allora…questa misconosciuta società di Singapore…

…specializzata nei lettori Mp3…

è la stessa Creative, fondata nel 1981, come si legge nella pagina About us sul loro sito.

Per inciso, Creative è la stessa che ha prodotto la scheda audio Sound Blaster, per molti anni LA scheda audio della maggior parte dei PC consumer in circolazione. E fra i rimanenti, quasi tutti avevano una “Sound Blaster compatibile”.

Però, per Repubblica, si tratta di una società di Singapore specializzata in lettori MP3, cui Apple ha concesso 100 milioni di dollari, dato che…

Creative, compagnia con sede a Singapore e specializzata nei lettori Mp3, aveva citato il 15 maggio scorso il gruppo guidato da Steve Jobs presso la Corte federale di San Francisco, rivendicando la paternità di una tecnologia, quella su riordino e organizzazione della musica, usata dal lettore venduto nel mondo ogni mese in milioni di pezzi.

In realtà, se dalle parti di Repubblica si fossero dati la pena di eseguire un paio di ricerche su Google, avrebbero scoperto che Creative ha citato Apple per la violazione di questo brevetto sulla ” Automatic hierarchical categorization of music by metadata “.

Inventors: Goodman; Ron (Santa Cruz, CA), Egan; Howard N. (Capitola, CA)
Assignee: Creative Technology LTD (Singapore, SG)
Appl. No.: 09/755,723
Filed: January 5, 2001

Ah se vi fate un giro trovate anche le immagini dell’interfaccia cui fa riferimento il brevetto, mentre due colpi di Google e venite a scoprire che durante il CES del Gennaio 2000, Creative ha presentato Nomad, il proprio lettore MP3 che già allora era dotato di questo tipo di gestione dei file musicali, ben prima dell’Ottobre 2001, data di rilascio dell’iPod.

E ci voleva tanto per scrivere quattro informazioni decenti in un articolo? Non pretendo che i redattori della sezione “Scienza e Tecnologia” di Repubblica conoscano la storia di una fra le aziende più famose per quanto riguarda l’hardware audio consumer, ma almeno si potrebbe evitare di chiamarla “una società di Singapore” e magari si potrebbe anche fornire un link, esageriamo due, al brevetto e alla storia che fa da retroscena all’accordo.

Ubuntu Dapper + XGL + Compiz + ATI X1600

compiz-1.png

Seguendo il semplice tutorial fornito da Pollycoke, ho provato a installare Xgl e Compiz su una Ubuntu Dapper messa in movimento da una scheda grafica ATI X1600, notando con mio sommo dispiacere che l’howto va leggermente modificato per venire incontro alle esigenze specifiche delle ATI. Ora, dato che da qui a due minuti mi scorderò come ho fatto a mettere in piedi il tutto, meglio scrivere questo tutorial modificato in modo da tenermi un bigino utile alla prossima formattazione.

Due o tre considerazioni preliminari:

  • Xgl (X Over OpenGL) è un’architettura X server, sviluppata da Novell, che si avvale delle OpenGL per gestire al meglio il rendering 3D accelerato offerto dalle più recenti schede video.
  • Compiz è un window manager sviluppato da Novell, che sfrutta le OpenGL e le estensioni composite per gestire al meglio le potenzialità grafiche messe a disposizione dal server Xgl.

Ok, here we go!

Prelevare i componenti

Il primo passo consiste nel rendere il più semplice possibile il lavoro, inserendo in

/etc/apt/sources.list

i seguenti repository:


deb http://www.beerorkid.com/compiz/ dapper main
deb http://xgl.compiz.info/ dapper main
deb-src http://xgl.compiz.info/ dapper main

Da qui verranno scaricati i pacchetti contenenti il server grafico, il window manager e le librerie e le utility che ci servireanno. Dato che non si tratta di pacchetti ufficiali, la loro firma non verrà accettata, a meno di scaricane la chiave e aggiungerla al keyring usato da apt:

sudo wget http://www.beerorkid.com/compiz/quinn.key.asc -O - | sudo apt-key add -

Ora, non rimane che installare i pacchetti necessari a dare un po’ di brio al desktop, iniziando con un aggiornamento della lista ottenuta dai depositi:


sudo apt-get update
sudo apt-get dist-upgrade
sudo apt-get install xserver-xgl compiz-gnome libglitz-glx1 libgl1-mesa

Configurare GDM

Sarà GDM a occuparsi di lanciare Xgl quando sarà il momento di accedere al sistema, quindi è proprio questo componente che va configurato affinché possa prendersi carico del lavoro.

Se provenite da Kubuntu, vi converrà installare Gnome e quindi accertarsi che GDM sia il display manager predefinito:


sudo apt-get install gnome
sudo dpkg-reconfigure gdm

Installare i driver ATI accelerati

Per poter sfruttare l’accelerazione grafica in 3D delle schede ATI è necessario scaricare i driver proprietari direttamente dal sito del produttore e installarli sul proprio sistema.

Al momento è disponibile la versione 8.27.10, di cui consiglio l’utilizzo, avendo sperimentato diversi crash con la versione 8.25.

Scaricati i driver, non rimane che lanciare l’installer che li racchiude, facendo in modo che generi i pacchetti .deb utili a razionalizzare l’installazione:


sudo chmod +x ati-driver-installer-8.27.10-x86.run
sudo ./ati-driver-installer-8.27.10-x86.run --buildpkg Ubuntu/dapper
Creating directory fglrx-install
Verifying archive integrity... All good.
Uncompressing ATI Proprietary Linux Driver-8.27.10......
==================================================
ATI Technologies Linux Driver Installer/Packager
==================================================
Generating package: Ubuntu/dapper
/tmp/fglrx.E0RA9n /usr/src/ati/fglrx-install
Package /usr/src/ati/xorg-driver-fglrx_8.27.10-1_i386.deb has been successfully generated
Package /usr/src/ati/xorg-driver-fglrx-dev_8.27.10-1_i386.deb has been successfully generated
Package /usr/src/ati/fglrx-kernel-source_8.27.10-1_i386.deb has been successfully generated
Package /usr/src/ati/fglrx-control_8.27.10-1_i386.deb has been successfully generated
Package /usr/src/ati/fglrx-sources_8.27.10-1_i386.deb has been successfully generated
/usr/src/ati/fglrx-install
Removing temporary directory: fglrx-install

Ora vi trovate con una serie di pacchetti, pronti per l’installazione, fra questi, tra l’altro, anche i sorgenti dei moduli del kernel deputati all’accelerazione della scheda grafica.

Installiamo i driver:

sudo dpkg -i *.deb

I sorgenti del modulo fglrx, che si occupa dell'accelerazione 3D della scheda video, sono installati. Non rimane che compilarli ma, volendo semplificare il lavoro, meglio farsi aiutare da un'ottima utility, ovvero module assistant. Installiamola:

sudo apt-get install module-assistant

E ora, un attimo di attenzione. Se avete già utilizzato module-assistant per creare il modulo fglrx in una versione adatta a un driver xorg precedente, semplicemente installare i nuovi sorgenti e lanciare la compilazione non darà i risultati sperati: si rimarrà con il vecchio modulo fra le mani e un errore che viene mostrato solo nel log di Xorg e dal comando

fglrxinfo

che dirà, molto cripticamente, che si stanno utilizzando le libreria Mesa per l'accelerazione grafica non hardware.

E' necessario, in questo caso, ripulire la directory di compilazione del modulo del kernel. Ma ci sono moduli fglrx compilati sul sistema?


sudo module-assistant search fglrx

fglrx-kernel-source (source package not installed):
-- Binary package(s) for kernel(s):
+ (2.6.17.3): fglrx-kernel-2.6.17.3_8.27.10-1+10.00.Custom_i386.deb
Beh, direi proprio di si. Nel mio caso, si tratta del pacchetto fglrx nuovo, dato che ho lanciato il comando dopo la sua compilazione e la sua installazione. Nel caso voi abbiate compilato un vecchio modulo fgrlx, troverete indicato il numero di versione corrispondente.

E' tempo di fare un po' di pulizia, per evitare problemi di compilazione:

sudo module-assistant clean fglrx

E ora si può passare alla vera e propria compilazione, installazione del pacchetto e rigenerazione delle dipendenze:


sudo module-assistant prepare
sudo module-assistant update
sudo module-assistant build fglrx
sudo module-assistant install fglrx
sudo depmod -a

Con i moduli abbiamo finito, è tempo di mettere le mani sul file di configurazione di Xorg.

Il file di configurazione di Xorg

Dato che Xgl funziona sull'architettura di Xorg, andrà modificato quest'ultimo affinché fornisca l'accelerazione necessaria a sfruttare la ricchezza grafica offerta dal primo. Lasicamo, però, che sia l'utility aticonfig a eseguire le prime modifiche sul file si configurazione di Xorg

/etc/X11/xorg.conf

Semplicemente, basterà lanciare


sudo aticonfig --initial
sudo aticonfig --overlay-type=Xv

Aprite il file di configurazione

/etc/X11/xorg.conf

e assicuratevi che le parti evidenziate siano presenti così come le vedete scritte. In caso contrario, copiate dall'esempio qui riportato, rispettando le sezioni di appartenenza:

# /etc/X11/xorg.conf (xorg X Window System server configuration file)
#
# This file was generated by dexconf, the Debian X Configuration tool, using
# values from the debconf database.
#
# Edit this file with caution, and see the /etc/X11/xorg.conf manual page.
# (Type "man /etc/X11/xorg.conf" at the shell prompt.)
#
# This file is automatically updated on xserver-xorg package upgrades *only*
# if it has not been modified since the last upgrade of the xserver-xorg
# package.
#
# If you have edited this file but would like it to be automatically updated
# again, run the following command:
# sudo dpkg-reconfigure -phigh xserver-xorg


#Section "InputDevice"
# Driver "wacom"
# Identifier "stylus"
# Option "Device" "/dev/wacom" # Change to
# # /dev/input/event
# # for USB
# Option "Type" "stylus"
# Option "ForceDevice" "ISDV4" # Tablet PC ONLY
#EndSection
#
#Section "InputDevice"
# Driver "wacom"
# Identifier "eraser"
# Option "Device" "/dev/wacom" # Change to
# # /dev/input/event
# # for USB
# Option "Type" "eraser"
# Option "ForceDevice" "ISDV4" # Tablet PC ONLY
#EndSection
#
#Section "InputDevice"
# Driver "wacom"
# Identifier "cursor"
# Option "Device" "/dev/wacom" # Change to
# /dev/input/event
# # for USB
# Option "Type" "cursor"
# Option "ForceDevice" "ISDV4" # Tablet PC ONLY
#EndSection

Se non avete tavolette grafiche o altre amenità del genere, assicuratevi che il blocco evidenziato qui sopra sia commentato. Ciò vi eviterà di osservare una gran quantità di errori nel file di log, relativi a queste periferiche non rilevate, sebbene erroneamente abilitate

Section "ServerLayout"


# InputDevice "stylus" "SendCoreEvents"
# InputDevice "cursor" "SendCoreEvents"
# InputDevice "eraser" "SendCoreEvents"

Per la stessa ragione, va commentato il blocco appena visto.

Identifier "Default Layout"
Screen "Default Screen" 0 0
InputDevice "Generic Keyboard"
InputDevice "Configured Mouse"
InputDevice "Synaptics Touchpad"
EndSection

Section "Files"

# path to defoma fonts
FontPath "/usr/share/X11/fonts/misc"
FontPath "/usr/share/X11/fonts/cyrillic"
FontPath "/usr/share/X11/fonts/100dpi/:unscaled"
FontPath "/usr/share/X11/fonts/75dpi/:unscaled"
FontPath "/usr/share/X11/fonts/Type1"
FontPath "/usr/share/X11/fonts/100dpi"
FontPath "/usr/share/X11/fonts/75dpi"
FontPath "/var/lib/defoma/x-ttcidfont-conf.d/dirs/TrueType"
EndSection

Section "Module"
Load "bitmap"
Load "ddc"
Load "dri"
Load "extmod"
Load "freetype"
Load "glx"
Load "int10"
Load "type1"
Load "v4l"
Load "vbe"
EndSection

Da non dimenticare l'abilitazione dell'accelerazione grafica...

Section "InputDevice"
Identifier "Generic Keyboard"
Driver "kbd"
Option "CoreKeyboard"
Option "XkbRules" "xorg"
Option "XkbModel" "pc105"
Option "XkbLayout" "it"
EndSection

Section "InputDevice"
Identifier "Configured Mouse"
Driver "mouse"
Option "CorePointer"
Option "Device" "/dev/input/mice"
Option "Protocol" "ExplorerPS/2"
Option "ZAxisMapping" "4 5"
Option "Emulate3Buttons" "true"
EndSection

Section "InputDevice"
Identifier "Synaptics Touchpad"
Driver "synaptics"
Option "SendCoreEvents" "true"
Option "Device" "/dev/psaux"
Option "Protocol" "auto-dev"
Option "HorizScrollDelta" "0"
EndSection

Section "Monitor"
Identifier "Monitor Generico"
HorizSync 28.0 - 72.0
VertRefresh 43.0 - 60.0
Option "DPMS"
EndSection

Section "Device"
Identifier "ATI Technologies, Inc. ATI Default Card"
Driver "fglrx"
Option "VideoOverlay" "on"
Option "OpenGLOverlay" "off"
Option "AGPMode" "4"
Option "AGPFastWrite" "True"
Option "EnablePageFlip" "True"

BusID "PCI:6:0:0"
EndSection

Le opzioni appena viste fanno un po' di tutto, dal caricamento del driver fglrx a qualche ottimizzazione per aumentare la velocità di calcolo.

Section "Screen"
Identifier "Default Screen"
Device "ATI Technologies, Inc. ATI Default Card"
Monitor "Monitor Generico"
DefaultDepth 24
SubSection "Display"
Depth 1
Modes "1440x900"
EndSubSection
SubSection "Display"
Depth 4
Modes "1440x900"
EndSubSection
SubSection "Display"
Depth 8
Modes "1440x900"
EndSubSection
SubSection "Display"
Depth 15
Modes "1440x900"
EndSubSection
SubSection "Display"
Depth 16
Modes "1440x900"
EndSubSection
SubSection "Display"
Depth 24
Modes "1440x900"
EndSubSection
EndSection


Section "DRI"
Mode 0666
EndSection

compiz-3.png

Fatto questo, è tempo di modificare i file di configurazione di GDM.

GDM

Il primo file a essere leggermente cambiato è proprio

/etc/gdm/gdm.conf

In questo file, cercate nella sezione

[servers]

modificate la riga

0=Standard

in

1=Standard

E commentate tutto ciò che inizia per 0, fino in fondo. In pratica, dovrete avere il seguente blocco:


[servers]
# These are the standard servers. You can add as many you want here and they
# will always be started. Each line must start with a unique number and that
# will be the display number of that server. Usually just the 0 server is
# used.
1=Standard
#1=Standard
# Note the VTAllocation and FirstVT keys on Linux and FreeBSD. Don't add any
# vt arguments if VTAllocation is on, and set FirstVT to be the first
# vt available that your gettys don't grab (gettys are usually dumb and grab
# even a vt that has already been taken). Using 7 will work pretty much for
# all Linux distributions. VTAllocation is not currently implemented on
# anything but Linux and FreeBSD. Feel free to send patches. X servers will
# just not get any extra arguments then.
#
# If you want to run an X terminal you could add an X server such as this:
#0=Terminal -query serverhostname
# or for a chooser (optionally serverhostname could be localhost):
#0=Terminal -indirect serverhostname
#
# If you wish to run the XDMCP chooser on the local display use the following
# line
#0=Chooser

## Note:
# is your X server not listening to TCP requests? Perhaps you should look at
# the security/DisallowTCP setting!

# Definition of the standard X server.
[server-Standard]
name=Standard server
command=/usr/bin/X -br -audit 0
flexible=true
# Indicates that the X server should be started at a different process
# priority. Values can be any integer value accepted by the setpriority C
# library function (normally between -20 and 20) with 0 being the default. For
# highly interactive applications, -5 yields good responsiveness. The default
# value is 0 and the setpriority function is not called if the value is 0.

#priority=0

# To use this server type you should add -query host or -indirect host to the
# command line.
[server-Terminal]
name=Terminal server
# Add -terminate to make things behave more nicely
command=/usr/bin/X -br -audit 0 -terminate
# Make this not appear in the flexible servers (we need extra params anyway,
# and terminate would be bad for xdmcp choosing). You can make a terminal
# server flexible, but not with an indirect query. If you need flexible
# indirect query server, then you must get rid of the -terminate and the only
# way to kill the flexible server will then be by Ctrl-Alt-Backspace.
flexible=false
# Not local, we do not handle the logins for this X server.
handled=false

# To use this server type you should add -query host or -indirect host to the
# command line.
[server-Chooser]
name=Chooser server
command=/usr/bin/X -br -audit 0
# Make this not appear in the flexible servers for now, but if you wish to
# allow a chooser server then make this true. This is the only way to make a
# flexible chooser server that behaves nicely.
flexible=false
# Run the chooser instead of the greeter. When the user chooses a machine they
# will get this same server but run with "-terminate -query hostname".
chooser=true
A dire il vero, basterebbe anche solo la modifica da 0 a 1 nella prima riga per impedire che venga lanciato l'Xserver standard, ma meglio andarci con i piedi di piombo fino a quando non avrò sperimentato delle configurazioni ottimizzate.

Ora è il turno del file

/etc/gdm/gdm.conf-custom

Apritelo e inserite le seguenti istruzioni:


[servers]
1=Xgl

[server-Xgl]
name=Xgl server
#la prima riga va bene per schede ATI
#la seconda va bene per schede nVidia
command=/usr/bin/Xgl :1 -fullscreen -ac -accel glx:fbo -accel xv:fbo
#command=/usr/bin/Xgl -ac -accel glx:pbuffer -accel xv:fbo
flexible=true
Il contenuto di questo secondo file dovrebbe eseguire un override sulle impostazioni del primo. In effetti non è così o, almeno, non lo è sempre: senza aggiungere 1=Xgl anche in gdm.conf il gioco non funziona, nel mio caso.

Configurare Gnome

Non rimane che configurare Gnome affinché lanci cgwd, il window decorator e compiz. Pr fare ciò, basterà accedere al menu

Sistema -> Preferenze -> Sessioni

e quindi selezionare l'etichetta

Avvio Programmi

Qui aggiungete queste due stringhe, una alla volta:


cgwd --replace

compiz --replace gconf --sm-disable

Finito. Non rimane che riavviare il sistema e godersi i nuovi effetti grafici con finestre elastiche, ombreggiature diffuse e il famigerato cubo, che potrete ruotare tenendo premuti contemporaneamente

CTRL + ALT + Frecce

oppure, sempre tenendo premuti CTRL + ALT, provate a trascinare il desktop a destra e a sinistra, oppure date un'occhiata all'effetto Exposè, per passare da un'applicazione all'altra, abilitato tramite il tasto

F12

Ma anche ALT + TAB non è da meno...

compiz-2.png

Link:

Pollycoke Ubuntu Dapper + XGL + Compiz Guide
Ubuntu Dapper Installation Guide

Qui si trasloca

Il vecchio server, che ci ha ospitati per qualche anno, ormai va in pensione. L’hardware continuerà la propria vita come file server in una piccola azienda, la linea, troppo lenta, farà la gioia di qualche utente residenziale.

Ci si sposta su Hetzner.de, presso i quali abbiamo affittato un server, che ora inizierà a ospitare qualche amico grazie a ISPConfig. Questo programma dovrebbe semplificarmi la vita, lasciando ai vari utenti la possibilità di gestire il proprio hosting sul nostro server, un po’ alla Plesk, ma sono sicuro, certo, incrollabilmente convinto che mi faranno diecimila domande idiote senza minimamente curarsi di esplorare prima i menu e leggere la documentazione online.

Nel fine settimana, quindi, questo sito dovrebbe diventare leggermente instabile, per poi riapparire più veloce che mai. Oppure non riapparire. Beh, almeno lascio un paio di possibilità, molto più di quanto ci venga concesso solitamente nella vita.

Bootcamp: da OS X a Windows per il “superior hardware”

Dopo aver lasciato sbizzarrire gli hacker in complicate conversioni, per portare OS X su PC, Apple ha rilasciato ieri Bootcamp, un “invertitore di flusso” per il mercato hardware, più che software. Cosa significa “invertitore di flusso”? Ci torneremo in seguito. Per ora limitiamoci a capire a cosa serve Bootcamp: semplicemente, si tratta di un’utility grafica che semplifica il lavoro di ripartizionamento del disco di un Mac Intel, automatizzando nel contempo la creazione di un cd di driver tramite il quale diventa possibile installare Windows XP sulle nuova macchine Apple, senza troppi problemi. Basta armarsi di un cd di installazione originale di Windows XP, un cd vergine sul quale masterizzare i driver, lanciare Bootcamp e alla fine riavviare il computer: l’utente si ritroverà con un sistema dual boot OS X/Windows XP, praticamente il sogno di molti che ancora non vogliono acquistare un Mac per paura di abbandonare un sistema operativo ben conosciuto e familiare come quello di Microsoft. Da notare che Bootcamp è disponibile per ora in forma di beta gratuita liberamente disponibile, ma sarà integrato nella prossima release di OS X, denominata Leopard e questo lascia pensare a qualcosa più di una semplice helper utility, buttata lì quasi casualmente.

Ma tutto questo, giova veramente e solamente all’utente?
Proviamo a compiere due riflessioni senza rete.

E’ interessante richiamare alla mente la strategia di posizionamento di Apple nella catena di valore che definisce la redditività di un prodotto di largo consumo come iPod: dalla creazione, alla distribuzione, alla fornitura di contenuti digitali, tenuta alla briglia dal DRM applicato ai prodotti iTunes, quasi tutta la filiera è saldamente nelle mani di Apple. Indubbiamente ciò è un bene per l’utente finale: Apple ricava a ogni passaggio un piccolo guadagno e il prezzo di ogni singolo stadio si attesta su valori tutto sommato bassi. E’ l’azione sinergica dovuta al possesso dei vari anelli della catena del valore a consentire che ogni step sia poco oneroso, garantendo nel contempo un buon guadagno complessivo del prodotto iPod, visto come unione fra prodotto materiale e contenuti multimediali offerti dallo stesso player, la casa di Cupertino.

A ben vedere, si tratta della stessa strategia perseguita nel tempo da Apple anche con i prodotti Mac: chiusura verso l’esterno, hardware proprietario, sistema operativo proprietario. Ma questa non ha avuto la stessa fortuna incontrata da un prodotto tutto sommato a basso costo e dall’acquisto compulsivo quale è l’iPod. E basta ritornare al 1997 per sentire Michael Dell suggerire la sua soluzione alla crisi profonda nella quale Apple versava in quegli anni: chiudere l’azienda e restituire i soldi agli azionisti.

Si era al culmine di una parabola discendente, di un meccanismo di produzione di valore negativo, fallito, rimasto confinato in una nicchia di utenti per lo più “creativi”, certo non di massa, tant’è che solo nel 2000 Jobs riesce a recuperare una situazione finanziaria critica e a ridare fiato all’azienda con l’introduzione dell’iPod, ma siamo nel 2001.

Di massa era sicuramente Windows, un sistema tutto sommato sul limine opposto a quello di Apple: un sistema operativo per nulla integrato con la soluzione hardware pilotata, aperto alle incursioni di produttori di ogni dove.

Il risultato? Computer meno costosi, sistema operativo estremamente diffuso, apertura di Microsoft sul fronte delle applicazioni. Non c’è da nascondersi che il fatto di produrre un sistema operativo avvantaggi chi sia intenzionato a scrivere delle applicazioni per questo sistema e Office è la maggior fonte di rendita per Microsoft: è ovunque, utilizzato da chiunque, per qualunque scopo. Ovviamente generalizziamo, ma è una generalizzazione che rende l’idea.

Se Office è la principale fonte di guadagno di Microsoft, più di Windows stesso, nelle sue varie forme, quale è il peso della strategicità dello scrivere o possedere il sistema operativo sul quale questo risiede?

Non sfugge certo il tentativo di Microsoft di spostate parte del business su Live, la piattaforma che centralizzerà gli applicativi e i dati da essi prodotti sui server remoti gestiti da Microsoft stessa. Progetto inseguito da molto tempo, ma che solo l’avvento del broadband diffuso ha consentito di rendere un’idea praticabile, spostando la produttività dal computer periferico, fondamentalmente incontrollabile, a una sorgente di erogazione di servizi remota, centralizzata, maggiormente controllabile.

Il sistema operativo si sta lentamente “virtualizzando”, diventando accessorio rispetto alle applicazioni, ai programmi, che siano dedicati alla produttività d’ufficio, alla gestione delle email, ai giochi ormai molto diffusi online.

E veniamo all’hardware. I Core Duo di Intel non sono una prerogativa esclusiva di Mac e gradatamente, senza troppo clamore, nelle fasce più alte di prodotto, soprattutto per i notebook, stanno arrivando i nuovi processori Intel, associati ai chip di Trusted Computing.

Ma cosa frena gli utenti dal prendere OS X funzionante su processore INTEL e portarlo sulle piattaforme PC dotate dello stesso tipo di CPU? Nulla, in effetti già qualcosa è stato fatto aggirando la protezione dei chip TC presenti, finora sfruttati al minimo delle loro potenzialità.

Prendendo la palla al balzo, però, Apple inverte i termini del gioco: perché portare OS X su PC, quando è Windows che può essere fatto scivolare senza problemi dentro un Mac Intel?

Lo scambio dei fattori, a ben vedere, è molto più redditizio. Non è il portare un sistema software “sconosciuto” su una piattaforma hardware familiare ad ampliare la base di mercato, ma è proprio il contrario, cioè portare un sistema operativo familiare su una piattaforma hardware sconosciuta.

A ben vedere, portare OS X su PC non ha né molto senso nè grandi vantaggi: la piattaforma Mac ha sempre goduto di buone prestazioni e affidabilità proprio per la forte compenetrazione fra sistema operativo e hardware, entrambi in mano ad Apple e quindi ben conosciuti e ben sfruttati. Muovere qualche passo nel mondo dei PC costringe a inerpicarsi in quella babele di periferiche, schede e processori che hanno reso si molto diffuso Windows ma ne ha anche limitato le prestazioni e inficiato la stabilità.

OS X, in fin dei conti, non ne avrebbe molto da guadagnare soprattutto se si tiene conto degli sforzi compiuti da Apple per accreditare i propri computer come oggetti di qualità, facili da utilizzare e costruiti con materiali di buona fattura.

Ha maggior senso l’operazione inversa: portare gli utenti Windows dalle piattaforme hardware PC a Mac.

Perché? Sostanzialmente per eliminare un gap sostanziale che ostacola la diffusione di OS X, ovvero la diffidenza di quegli utenti che sono nati in Windows e cresciuti con le sue applicazioni. Chi si butterebbe a corpo libero in un sistema operativo sconosciuto, con il timore di non ritrovarvi le applicazioni di sempre?

Lungi dal pensare all’utente avanzato, Apple ha a che fare con il cliente che utilizza il computer prima ancora di comprenderlo, che lo accende e vi ritrova quelle applicazioni che è solito utilizzare. Questi possono essere portati a OS X essenzialmente con due operazioni sinergiche:

  1. Con la riaffermazione dell’immagine di prodotto. Mac è semplice, Mac è user friendly, Mac funziona e non ha schermate blu, rosse o verdi. Mac è, dopo il successo di iPod, ancora più trendy, definisce uno stile di vita, un’immagine di sé, veicolata dal prodotto, vincente. Determina una identità di appartenenza a un gruppo connotato da forti attributi positivi e di integrazione sociale;
  2. Rassicurazione dell’utente. In OS X si possono ritrovare le applicazioni che vengono utilizzate in Windows. E se non vi sono, ora diventa possibili tenere Windows su Mac, accanto a OS X, e utilizzare uno o l’altro, forse il meglio di uno e dell’altro.

La transizione, quindi, può non solo completarsi, ma, aspetto più interessante, può iniziare.

L’utente è blandito e rassicurato, viene traghettato in una immagine positiva e nel contempo non è costretto ad abbandonare il mondo di riferimento, un po’ come un bambino che muova i primi passi attaccato alla gonna della madre.

Cosa ci guadagnerebbe Apple? Sicuramente inizierebbe a traghettare nel proprio mondo tutti quegli utenti curiosi, interessanti, ma poco disposti ad abbandonare un sistema operativo, o meglio una serie di applicazioni, utilizzate quotidianamente, a casa come in ufficio.

Altrettanto sicuramente, porterebbe questi utenti a conoscere OS X, visto che Windows XP si installerà solo come secondo sistema operativo, lasciando presente e attivo il sistema nativo Apple.

Infine, porterebbe i clienti a scoprire la qualità dell’hardware Apple, definito nelle parole di Philip Schiller, senior vice president del Worldwide Product Marketing di Apple “superior hardware”, che quindi sarà “more appealing to Windows users considering making the switch”.

Ma a discapito di chi andrà questa transizione? Di Microsoft? Difficile a dirsi. Certo è che se si vogliono cogliere segnali di nervosismo, questi andrebbero, per ironia, attribuiti a Dell, che ha appena acquisito Alienware, azienda specializzata nella produzione di computer che, non a caso, costituisce in parte un omologo di Apple nel mondo dei PC: crea hardware di qualità e computer dall’aspetto molto curato.

Microsoft, dal canto suo, può tutto sommato rimanere a guardare: il proprio sistema operativo inizia un viaggio su piattaforme del tutto nuove, mentre proprio lì dove finora arrivava con difficoltà, nel mondo Apple, ora può entrare a pieno titolo, con le proprie applicazioni in modalità nativa. Se, poi, dovesse perdersi il sistema operativo lato consumer, non è su quello che si crea business, ma su Office, che già ora sta guardando a nuovi orizzonti, lasciandosi dietro i vecchi PC “disconnessi”.

E così Apple arriverebbe a coronare un vecchio sogno, ovvero arrivare a controllare la catena di produzione del valore associata ai computer, strategia riuscita con iPod, assolutamente fallita con i Mac, non tanto per una questione di controllo, quanto per una resa produttiva inficiata dai numeri finora troppo bassi.

Di sfuggita, potremmo accennare a un nuovo problema: con l’avvicendamento di nuovo hardware pare ridursi la fetta di computer privi dei nuovi chip dedicati al Trusted Computing. DRM e TC, due facce della stessa medaglia, paiono essere i leitmotiv dell’industria dei prossimi anni, impegnata a gestire, salvaguardare e ottimizzare la gestione dei contenuti sulle piattaforme end user, decidendo chi può fare cosa, dove e quando.

Cosa fare se il mercato pare imprimere una decisiva svolta in questa direzione? Ci ritroveremo, come per i monitor LCD, senza più la possibilità di scegliere computer non TC? Già, perché basta andare in un qualsiasi centro commerciale per accorgersi che è il mercato dei computer a formare la domanda e non viceversa: provate a cercare un vecchio monitor a tubo catodico. Semplicemente, non se ne fanno più.

E quando non si faranno più computer privi di TC e DRM? Dovremo iniziare a pensare in termini di Hardware Libero? Difficile. Se nel mondo del software la creatività è affiancata da un ridotto costo materiale, nella sfera dell’hardware il discorso cambia radicalmente. Una scheda madre va ingegnerizzata, realizzata in prototipi, provata per poi essere messa in produzione su una linea di gestione appositamente attrezzata. E tutto questo richiede investimenti non comparabili con quelli richiesti per lo sviluppo di un progetto unicamente software.

C’è chi riduce la questione dei DRM a una semplice questione di interoperabilità, tesi interessante ma fuorviante, e chi tenta di far passare il Trusted Computing come strumento essenziale per combattere virus, troiani e malware in generale.

Ma chi ha da guadagnarci in tutto questo?

L’utente, tutto sommato, ben poco. Su gnuvox trovate una serie di link utili a risorse per approfondire i problemi legati ai DRM.

Il mercato ha tutto da guadagnarci, rafforzando il controllo sui “contenuti”, nuova parola d’ordine per il futuro prossimo venturo.

E quando non avremo più scelta? Dove vorrete andare, domani?