Università degli Studi di Firenze

Facoltà di Scienze della Formazione

Corso di formazione avanzata

"La qualità della formazione"

 

Direttore del master: Prof. Paolo Orefice

Tutor: Dott. Antonio Cordoni

 

 

 

 

LA QUALITA’ DEGLI STRUMENTI DI FORMAZIONE:

IPOTESI PER LA VALUTAZIONE DEI SITI WEB

 

 

Carla Maltinti

 

 

 

 

 

 

 

 

A.A. 1999-2000

 

 

 

INDICE

 

Pag. 4 Premessa

Parte prima

Pag. 6 1. Il sapere digitalizzato. Una questione didattica

Pag. 9 2. Il progetto di stage: ipotesi per la valutazione di qualità di un sito web

Parte seconda

Pag. 10 1. Il World Wide Web

Dal testo all’ipertesto

L’ipertesto globale: il linguaggio del web

Gli elementi tecnici del web

L’interfaccia: come organizzare i contenuti di un sito

I domini

I motori di ricerca: come orientarsi nell’archivio Internet

Pag. 24 2. Il web usabile

Cosa si intende per usabilità

I dieci comandamenti di Nielsen

I metodi per la valutazione dell’usabilità

Come si misura l’usabilità

La progettazione orientata all’usabilità

Pag. 47 3. Il web accessibile

Il problema dell’accessibilità ai siti web

Le regole fondamentali per realizzare pagine accessibili

Una proposta per la regolamentazione del diritto di accesso alle risorse

informatiche

Audizione AIPA 7 luglio 2000

Il Piano 2000 promosso dalla Presidenza del Consiglio dei Ministri

Parte Terza

Pag. 64 1. "Progettotrio.it"

Allegati

Pag. Bibliografia

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Premessa

 

Quando, da piccola, cominciai a leggere il libro di Pinocchio, che la nonna mi aveva regalato, trovai, con gran soddisfazione poiché non amavo molto la lettura, il modo per saltare interi capitoli. Mi vennero in aiuto i piccoli riassunti che si trovano all’inizio di ogni episodio i quali, se letti di seguito, sono così efficaci da far comprendere l’intera avventura del burattino senza dover faticare molto. Mi è tornato in mente questo fatto proprio mentre lavoravo a questo progetto. Non avevo forse sperimentato, in quel caso, una tecnica ipertestuale che aveva facilitato il mio percorso attraverso-dentro un libro che a me pareva tanto grosso? Sono andata a ricercare il volume e quei capitoletti che allora mi avevano alleviato dal peso della lettura erano ancora là a dimostrare che quel libro era stato scritto per tutti, anche per i più svogliati; non c’era un solo modo per entrare in quella storia.

Il collegamento con i siti web è stato quindi intuitivo: se un sito è ben progettato diventa usabile ed accessibile a tutti. Presenterà più livelli, (che consentiranno all’utente di approfondire l’argomento), sarà sintetico e chiaro (farà comprendere velocemente quali sono i contenuti trattati) e soprattutto non farà "sentire" l’utente inadeguato rispetto allo strumento (ci saranno pulsanti di aiuto, link utili e una grafica minimalista).

Le premesse però, lo sappiamo, vengono scritte sempre come ultima cosa e questo richiamo al libro di Pinocchio non lo avremmo potuto fare senza aver prima ricercato, letto e studiato il materiale che è qui raccolto sulla questione della qualità dei siti web.

Gli strumenti del comunicare che abbiamo adesso a disposizione facilitano il sogno dell’accesso universale alla conoscenza e alla possibilità, insita negli strumenti stessi, di immaginare soggetti "in formazione continua", che partecipino alla costruzione del sapere, interagendo con gli organismi competenti, che sviluppino nuove capacità, che cerchino soluzioni ed operino poi, trasformazioni significative nell’ambiente esterno.

Partendo da questo presupposto ci siamo rivolti alla rete telematica con il sospetto che gli elaborati elettronici fossero ancora, in massima parte, mal progettati, fatti per catturare e stupire più che per essere utili, costruiti come giocose sperimentazioni da avventurieri della consolle e da grafici creativi oppure, come rigide strutture, fatte da tecnici rigorosi che realizzano pagine sbiadite e poco accoglienti.

La prima parte di questo lavoro è stata allora dedicata alla ricerca di materiale che consentisse di ipotizzare degli indicatori di qualità per la valutazione dei siti web. La ricerca è stata svolta principalmente in rete, con l’aiuto del tutor esterno, Stefano Sansavini dell’Associazione Culturale Stranonetwork di Firenze, che mi ha insegnato a cercare, nel "mare magnum" della rete, con e senza i motori di ricerca.

Il risultato più sorprendente lo abbiamo avuto in relazione alla quantità di pagine dedicate alla progettazione dei siti, al controllo della qualità, alle misure e ai metodi più diffusi per validare un sito in relazione all’usabilità e all’accessibilità (studi che derivano quasi esclusivamente dalle università degli Stati Uniti). L’esito positivo della ricerca effettuata durante il primo stage, ha consentito quindi di proseguire l’indagine facendo una comparazione tra i valori indicati dai massimi esperti d’usabilità e i progetti FAD in corso nel territorio regionale. Il secondo stage è stato svolto perciò, con l’aiuto di Ilaria Gabbani, presso la sede del Progetto Trio, a Pratolino. Là è stato possibile visionare i prodotti off line per la formazione a distanza e verificare, tramite domande ai tecnici e ai vari esperti, le incongruenze o le imperfezioni riscontrate durante la navigazione o la visione dei vari Cd Rom realizzati per i corsi di formazione professionale.

E’ auspicabile però, a questo punto, che anche in ambito formativo/educativo (in ambito commerciale in Italia sono già arrivati alcuni segnali), si diffonda una maggiore attenzione alle tematiche qui introdotte; intanto sarà utile cominciare a pensare alla progettazione come ad un "processo" che coinvolga l’utente in tutte le fasi di produzione, verifica e ridefinizione di un prodotto software o di un’interfaccia, poi ad affidare la realizzazione a un team multidisciplinare di esperti e infine a centrare tutta l’attività sull’utente in interazione con i suoi bisogni formativi.

 

 

 

 

 

 

Parte Prima

 

 

 

  1. Il SAPERE DIGITALIZZATO

UNA QUESTIONE DIDATTICA

 

Chi progetta strumenti di supporto all’attività umana dovrebbe farlo nel pieno rispetto di chi li utilizzerà. Invece, abbiamo potuto costatare, e chiunque può farlo, che il web ancora non funziona secondo questa logica: è consuetudine, ad esempio, non indicare la data dell’ultimo aggiornamento (che è come omettere la data di pubblicazione di un libro), non segnalare il nome dell’autore del sito, non inserire l’indirizzo di posta elettronica, non descrivere le operazioni che si stanno per fare, non avvisare che ci stiamo collegando ad un altro sito, quanto tempo occorre e quanta memoria occuperà il file una volta scaricato su disco; nel web è premiata l’idea di aver reso un sito accessibile ai disabili, quando invece dovrebbe essere la norma. Secondo Jacob Nielsen, il massimo esperto di usabilità, il 90% dei siti web attualmente visionabili, è da considerare "trash" e con essi molti prodotti off line.

Il web, ambiente ideale per l’apprendimento singolo e di gruppo, - motivo questo che giustifica i grossi investimenti sui corsi FAD – avrà bisogno di un po’ di tempo prima di essere organizzato in modo che l’utente sia considerato un partecipante, sia posto cioè come co-creatore di un sistema che amplifichi e sviluppi le sue capacità; sarà necessario stimolare la discussione perché si giunga a definire gli obiettivi in fase di progettazione, si consideri di operare verifiche, test e quant’altro perché il sito possa risultare facilmente usabile e accessibile a chiunque usufruisca del servizio on line.

Con lo sviluppo e la diffusione, spesso anche gratuita, di software per la connessione e di linguaggi ipertestuali, lo stile della rete sta comunque mutando; va sempre più delineandosi una forma di comunicazione allargata, accogliente e, nei casi più illuminati, centrata sull’utente e sui suoi bisogni. Le esigenze di mercato se da un lato stanno trasformando la rete in un prodotto estremamente appetibile, poiché mercificabile, hanno dall’altro posto l’attenzione su quella parte del web che riguarda la comunicazione, il trasferimento di dati, di contenuti e di idee e del modo in cui questo avviene o dovrebbe avvenire. Sì perché il modo in cui sono ordinate le pagine, la maniera in cui sono disposte le immagini, la quantità minore o maggiore di animazioni, la scelta dei colori, la possibilità di interagire con i gestori di un sito, fanno la differenza e soprattutto la qualità di un ambiente ad alto valore comunicazionale, quale il collegamento in rete.

Ma non solo. L’esigenza di far convergere lavoro e apprendimento trovano nelle nuove tecnologie risposte sempre più adeguate: attualmente, gran parte delle attività lavorative richiedono aggiornamenti continui, riqualificazioni, acquisizioni sempre più frequenti di nuove competenze. Considerando perciò quanto e con che ritmi è necessario ri-apprendere, la soluzione più pratica diventa quella di usufruire di postazioni multimediali on line che, dal luogo di lavoro, o da casa, permettano un apprendimento mirato, controllato e tutorato a distanza.

Il patrimonio delle conoscenze, i contenuti professionali, i segreti del mestiere hanno bisogno però di una forma digitale adeguata, precisa, funzionale, accessibile che consenta, senza perdite rilevanti, il trasferimento all’esterno.

E’ allora auspicabile che sia data maggior importanza a chi riceve piuttosto che a chi trasmette; è fondamentale che si pensi al modo, o ai modi, per codificare e strutturare la conoscenza; forse sarebbe necessario definire una didattica della digitalizzazione del sapere.

Gli atomi della conoscenza vanno trasformati in bit e saranno poi quei bit ad incontrare l’utente in formazione, sul monitor di casa, a scuola, sul piccolo portatile.

Questi modi possono essere studiati, individuati, insegnati, trascritti su dei manuali, per essere utilizzati da chi si occuperà di progettazione multimediale.

Nella scuola ci sono molti insegnanti che non entrano in aula senza una guida didattica, perché hanno bisogno, non tanto di idee legate ai contenuti, (quasi tutti sanno cosa devono fare) ma cercano soluzioni sul come fare, come organizzare un’attività, come procedere nell’approfondimento di una determinata tematica.

Per restare competenti e per essere quindi competitivi bisogna saper fare, ma anche saper trasmettere le nostre conoscenze alle persone che lavorano con noi o a coloro che a noi si rivolgono per imparare. Non importa se un mestiere o una canzone.

Già. Ma per essere sicuri che un significato venga trasmesso è necessario che questo sia reso accessibile. Gli strumenti tecnologici trasmettono significati e lo fanno senza perdita alcuna: le idee vengono registrate, duplicate, conservate, diffuse, gestite nello spazio e nel tempo ma a condizione che si proceda con adeguata metodologia.

La pianificazione a priori delle interfacce uomo-macchina, l’attenzione all’usabilità di un prodotto, la volontà di renderlo accessibile anche agli utenti disabili investe molte categorie che si occupano sia di formazione che di mercato; si possono annoverare i docenti dei corsi di linguaggio multimediale, le Pubbliche Amministrazioni, i gestori di server provider, le agenzie di pubblicità e tutta l’editoria multimediale.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2. Il progetto di stage

 

Finalità generale

Obiettivi specifici

Fasi di attuazione

Tutor: Stefano Sansavini – webmaster

Tutor: dott.sa Ilaria Gabbani

 

 

Parte seconda

 

  1. Il world wide web

 

Dal testo all’ipertesto

La comunicazione è certamente un'esigenza tipica dell'uomo, ma le potenzialità della sua diffusione sono assolutamente legate alle innovazioni tecnologiche, secondo una dinamica che vede in quella la domanda e in queste la risposta. E' quindi la diffusione delle nuove tecnologie, legate ai processi comunicativi, a porre il problema della proliferazione della conoscenza e parallelamente quello della complessità della sua gestione. Non è però una questione odierna, legata alla telematica e al computer. Nel tempo, la memoria e la biblioteca sono state le risposte organizzative studiate dall'uomo per rispondere alle esigenze di conservazione della cultura orale prima, basata sul manoscritto e sul libro a stampa poi. Bisogna capire che cosa offrono di nuovo le nuove tecnologie per ipotizzare come possono cambiare in prospettiva le modalità della comunicazione e della sua conservazione.

L'ipertesto in fondo altro non è che un nuovo modo di organizzare dei contenuti, il patrimonio della conoscenza; un modo che deriva da un’esigenza antica e si realizza con una tecnologia innovativa.

La memoria è stato il primo archivio della conoscenza, legato alla cultura della comunicazione orale e simboleggiata, nel nostro immaginario, da Omero, il poeta che non scrisse nulla. Fu la scrittura, su rotolo, "volumen", a metterla in crisi e ad imporre un altro modo di conservare un patrimonio che la nuova tecnologia sembrava rendere immenso con il suo potere di superare i limiti umani del tempo: la biblioteca, nuovo serbatoio della memoria umana, dominò incontrastata da Alessandria d'Egitto ad ogni angolo della terra, conosciuta attraverso due millenni fin quando l'invenzione della stampa a caratteri mobili non sconvolse un sistema che sembrava perfetto nella sua cristallizzazione. Una mole di carta scritta, prima impossibile solo da immaginare, si riversò sui banchi degli studiosi, nelle borse dei viandanti, negli scaffali di molte case. Per la prima volta la conoscenza poteva essere confrontata e poteva sorgere nella mente di chi leggeva una nuova esigenza: quella di passare da un testo ad un altro, costruendo ponti oltre che sinapsi. Si cominciò a camminare mentre si studiava e più la stampa affinava il suo processo produttivo, moltiplicando per mille i testi disponibili, più i lettori cominciavano ad immaginare nuovi modi di raccogliere quel pozzo senza fondo.

Nasceva l'arte di classificare i libri, si diffondevano i repertori e, dopo un secolo dalla vera e propria data d’inizio della diffusione del libro a stampa in Europa, in un testo compariva una macchina in grado di permettere la lettura contemporanea di numerosi libri, o meglio il passaggio dall'uno all'altro senza la necessità di uno spostamento. Il testo, del 1588 s’intitolava "Le diverse et artificiose machine" del Capitano Agostino Ramelli e la macchina altro non era che una ruota con tanti leggii bilanciati su cui poggiare i libri necessari, tenendoli aperti a piacimento. Azzardando un po' si potrebbe dire che nasceva l'idea dell'ipertesto.

Ma ciò che colpisce, oltre alla fervente immaginazione di Ramelli è la vicinanza, dal punto di vista dell'esigenza che mette in moto l'idea, tra la sua macchina e "Memex" che Vannevar Bush definì nel 1945 e che è considerata la macchina per ipertesti prima degli ipertesti. Certo, il tutto è meno ingombrante e basato su supporti più credibili, ma in fondo alla base di entrambe c'è il desiderio di poter raccogliere la conoscenza in misura superiore ai limiti del momento e di poterne disporre senza eccessive dilazioni di tempo. Il "Memex" era un congegno in grado di archiviare la conoscenza in modo preciso permettendo di visualizzare ogni elemento d'informazione digitando il codice mnemonico corrispondente e, ancora più importante, era in grado di registrare le connessioni osservate fra elementi distinti. Bush, che scriveva prima dell’avvento dell’informatica digitale, concepì il suo apparecchio come una scrivania con schermi traslucidi, leve e motori per la ricerca rapida di microfilm; il memex avrebbe consentito al lettore di aggiungere note e commenti e, tramite uno stilo, di prendere appunti. Egli sottolineava che questo tipo di associazione non lineare di idee è il modo di funzionamento naturale della mente umana, e confidava sulla futura creazione di dispositivi simili in grado di riprodurne in modo efficace le caratteristiche.

Nel 1965 Theodor Holm Nelson coniò il termine Ipertesto.
" Lasciate che io introduca il termine "ipertesto" per rappresentare un insieme di materiale scritto o figurato, interconnesso in un modo così complesso da non poter essere rappresentato su carta. Esso può contenere sommari o mappe dei suoi contenuti e delle relazioni che vi intercorrono; può contenere annotazioni, note a fondo pagina di coloro che vi hanno lavorato sopra [..] tale sistema correttamente disegnato e gestito, presenta grandi potenzialità nel campo educativo per l'ampia gamma di scelte, per il suo senso di libertà, per la sua presa intellettuale. Un sistema come questo può crescere indefinitamente, includendo gradualmente sempre maggiori conoscenze [..]."iper": ha il significato di estensione [..], questo prefisso rappresenta l'impossibilità di rappresentare le informazioni contenute attraverso una rappresentazione lineare, come una stringa di testo." T.H.Nelson

 

 

 

L’ipertesto globale: il linguaggio del web

L’ipertesto più diffuso prima dell’avvento del web è stato Hypercard che, tra il 1987 e il 1992, fu diffuso gratuitamente dalla Apple sui Macintosh. Nel 1989, con l'aumento delle capacità di calcolo e d’archiviazione dei computer, le suggestioni dell’idea di ipertesto diventarono realtà nei laboratori del CERN di Ginevra. Nel maggio del 1990, Tim Berners Lee, presentò ai dirigenti dei laboratori ginevrini una relazione intitolata "Information Management: a proposal". La proposta di Berners Lee aveva l'obiettivo di sviluppare un sistema di pubblicazione e reperimento dell'informazione, distribuito su rete geografica, che tenesse in contatto la comunità internazionale dei fisici. Nell'ottobre di quello stesso anno iniziarono le prime sperimentazioni. Certamente Berners Lee era fortemente influenzato da tutte le teorizzazioni e le realizzazioni di ipertesti, ma le esigenze del progetto di cui faceva parte erano tali da giustificare un’implementazione solamente parziale. Per alcuni anni il World Wide Web è stato uno strumento utilizzato esclusivamente dalla comunità scientifica. L'impulso decisivo al suo sviluppo venne, agli inizi del 1993, dal National Center for Supercomputing Applications (NCSA) dell'Università dell'Illinois, dove Marc Andressen ed Eric Bina svilupparono un’interfaccia grafica, una multipiattaforma per l'accesso ai documenti presenti su World Wide Web: il famoso Mosaic che distribuirono gratuitamente a tutta la comunità di utenti della rete. Nasce così il World Wide Web, nella forma in cui oggi lo conosciamo e che ne ha permesso l'enorme diffusione; tutti possono accedere al servizio e saltare da un nodo all'altro con la semplice pressione di un dito della mano, tutti possono sperimentare la potenza della comunicazione ipertestuale, o meglio della sua semplificazione avvenuta in quel laboratorio di Ginevra.

L'ipertesto globale, così viene spesso definito il World Wide Web. Quest’affermazione non è completamente sbagliata, ma può essere considerata una forzatura. Un nesso tra le due cose esiste, anzi due: la diffusione di questa tecnica per la comunicazione in seguito all'esplosione di Internet come medium di massa e la struttura non lineare delle informazioni nella rete mondiale. D'altra parte succede spesso che le innovazioni tecnologiche rivoluzionarie trascinino nella loro scia una serie di novità che a ben guardare novità non sono; Internet è una realtà molto complessa in cui certamente l'elemento caratterizzante è il protocollo TCP/IP, che sostiene una serie di applicazioni tra cui quelle legate al Web, ma tant'è, per molti, Internet è il web e il web è l'ipertesto globale. Il protocollo TCP/IP ha quasi trent'anni, i primi esperimenti d’ipertesti sono ancora più vecchi, i linguaggi di markup sono anch'essi già appesantiti dal tempo, ma tutte queste tecnologie dovevano aspettare che qualcosa ne sintetizzasse gli aspetti rivoluzionari all'interno di un'interfaccia semplice ed intuitiva: il browser, il motore esplicito dell’esplosione di Internet. Il www si basa comunque sul concetto di ipertesto: un documento testuale, potenzialmente arricchito di immagini, suoni ed animazioni, legato ad altri documenti attraverso dei link. I link ipertestuali rendono possibile caricare altri documenti ipertestuali, in una rete potenzialmente infinita. Fra i punti di forza del www va sicuramente annoverata la facilità di utilizzo: buona parte della navigazione si risolve nel clickare con il mouse sui link..
Internet è la rete delle reti informatiche. Si basa su di un protocollo (http) potenzialmente capace di trasmettere ogni tipo di dato che può essere elaborato da un calcolatore. Con l'avvento dei computer multimediali, capaci di interfacciarsi con innumerevoli media, attraverso Internet è adesso possibile condividere, tranne poche eccezioni, praticamente ogni cosa: documenti, libri, musica, immagini, programmi, applicativi, persino film o trasmissioni radiofoniche.

 

Gli elementi tecnici del web

Internet è uno degli strumenti più potenti che si possano immaginare: la potenza computazionale dei calcolatori connessi è difficilmente stimabile; il sistema coinvolge un numero di utenti e di documenti estremamente alto: a marzo 2000 sono stati contati 300.000.000 di utenti mondiali on line; 120.000.000 persone in USA hanno la connessione, 80.000.000 la utilizzano con regolarità; 10.700.000 italiani hanno la connessione; 5.6 milioni vanno on line una volta a settimana (maggio 2000).
Il motore di ricerca "Altavista" indicizza 250.000.000 di pagine. La presenza di un tale numero di pagine indicizzate da un motore di ricerca pone esplicitamente un problema, sia per i produttori che per i fruitori dei contenuti del web. Un sistema che contiene 250 milioni di documenti si rivela senza dubbio potente, ma difficile da utilizzare.
Nel momento in cui lo scopo che ci prefiggiamo presenta un elevato livello di complessità, abbiamo la necessità di un artefatto, di uno strumento che offra flessibilità e alternative d'utilizzo. In altre parole abbiamo bisogno di un artefatto che presenti a sua volta una certa complessità e che offra quindi la possibilità di muoversi con efficacia nell'ambiente, offrendo diverse soluzioni per il raggiungimento dello scopo. Il computer è una macchina in grado di trattare fisicamente soltanto lunghe sequenze binarie; sequenze talmente lunghe che, con l'aumentare delle potenzialità dell'hardware, è possibile ormai rappresentare qualsiasi cosa. Tutto quello che viene visualizzato da un monitor, qualunque operazione sia effettuata da un computer, passa attraverso una serie di filtri progressivi che la riducono dal linguaggio umano a quello della macchina. La produzione di testi non sfugge a questa regola, e nel tempo è stata risolta sostanzialmente in due modi: attraverso gli ambienti di word processing e attraverso i linguaggi di markup. I linguaggi di markup descrivono i meccanismi di struttura e di rappresentazione del testo attraverso dei linguaggi veri e propri che utilizzano delle convenzioni standard, utilizzabili quindi su più sistemi, e derivano concettualmente dai sistemi usati nelle tipografie per "marcare" le porzioni di testo indicandone le caratteristiche.

I linguaggi di markup possono essere distinti in due gruppi:

- linguaggi di markup di tipo procedurale

- linguaggi di markup di tipo descrittivo

La differenza tra i due sta nel meccanismo usato per definire la formattazione del testo ovvero la rappresentazione; i linguaggi di tipo procedurale indicano le procedure di trattamento del testo aggiungendo le istruzioni che devono essere eseguite per visualizzare la porzione di testo referenziata, mentre i linguaggi di tipo descrittivo lasciano la scelta del tipo di rappresentazione da applicare al testo, al software che di volta in volta lo riprodurrà. Garantiscono una corretta separazione tra struttura e rappresentazione che è uno degli aspetti più importanti da tenere in considerazione nella produzione di ipertesti. Tra i linguaggi del primo tipo ci sono lo Script, il TROFF, il TEX, tra quelli del secondo tipo SGML, HTML, XML.

L’HTML

Si chiama HTML, ovvero HyperText Markup Language, il linguaggio software con cui dare alle pagine la forma scelta.

L’XML

Rappresenta l’ultima generazione di linguaggio software per costruire ipertesti, il superamento dell’ HTML.

L’http

Si chiama http, ovvero Hyper Text Tranfer Protocol, il protocollo di trasmissione che, utilizzando la tecnologia Internet, consente di chiedere le pagine a un computer lontano (server) e di riceverle tramite il computer dell’utente (client).

L’URL

Si chiamano URL, ovvero Universal Resource Locator, gli indirizzi elettronici dei siti web che sono sempre preceduti dal prefisso http//.

Il Browser

Si chiama browser il software per la connessione (Netscape Navigator, Internet Explorer, ecc.)

 

 

L’interfaccia: come organizzare i contenuti di un sito

Quando leggiamo l'indice di un libro diamo per scontato che il carattere più grande o l’allineamento più a sinistra indichi un capitolo, mentre il carattere minore, o un allineamento più a destra, un paragrafo. E' un esempio molto evidente di come una tecnologia di comunicazione, nel tempo, ha definito il rapporto fra la struttura gerarchica delle informazioni e la loro rappresentazione visiva. Se ci trovassimo di fronte ad un libro sprovvisto di titolo, luogo di pubblicazione, data, nome dell’autore, indice, prefazione, ecc. penseremmo ad una provocazione di un artista piuttosto che ad un errore. Quante volte capita, girando tra gli scaffali di una libreria, di notare un libro, girarlo per leggere sul retro la sintesi del contenuto e le notizie biografiche di chi lo ha scritto. Il libro riporta delle informazioni organizzate in modo da risultare accessibili al lettore, e questo succede a prescindere dalla casa editrice, dalla tipologia estetica, dal colore della carta e dal carattere usato, a prescindere cioè dalla loro rappresentazione.

Per quanto riguarda i testi elettronici il discorso dovrebbe essere lo stesso: esiste un contenuto, una struttura che lo contiene e la rappresentazione che appare sul monitor.

Nel momento in cui ho bisogno di un'informazione entrano in gioco tutti e tre questi livelli, ma è bene che non si perda di vista come questi siano tra loro diversi anche se vengono sintetizzati in un unico file o in un'unica schermata.

La "Home page" è la pagina che dovrebbe rendere chiaro il contenuto di un sito, la sua organizzazione, le istruzioni per muoversi all’interno, fare gli "onori di casa", accogliere quindi il visitatore. Le informazioni essenziali per capire se siamo capitati nel luogo (sito) giusto dovrebbero stare nella prima o seconda videata al massimo. Troviamo allora l’indice, un indice-attivo, che spesso viene definito come MENU; sulla home page si trovano anche rubriche di servizio quali: la posta elettronica (mail to), i pulsanti di aiuto (help), la data (ultimo aggiornamento), autori del sito (chi siamo), un motore di ricerca interno (search), le novità più interessanti (new), i collegamenti con altri siti (links utili).

Le interfacce grafiche o a finestre, così come le usiamo noi adesso hanno indubbiamente facilitato l’approccio con la rete; fino a dieci anni fa i collegamenti in rete avvenivano mediante schermate completamente nere su cui comparivano stringhe di parole; le banche dati più attraenti avevano caratteri dai colori accesi e brillanti, niente animazioni, nessuna immagine, al massimo si potevano realizzare delle figure animate utilizzando il linguaggio basic, ma era considerata "roba da ragazzi". Dall’austera sala d’incontro tra i bit e le persone, com’era la vecchia schermata, siamo passati al salone delle feste, dove, quasi fossimo a Las Vegas, si viene continuamente attratti da mirabolanti giochi ottici che ci inducono a restare attaccati al computer nonostante il contascatti del telefono, oppure ad abbandonare la ricerca intrapresa perché ci sentiamo, forse un po’ aggrediti, da impertinenti webmaster.

 

 

I domini

I domini sono gestiti da una società statunitense (ICANN) che solo da poco tempo ha aperto a membri non USA le proprie porte. Sono in corso accese discussioni sulla gestione dei domini e ultimamente anche l’Unione Europea ha inteso affermare la necessità di avere, per le realtà geografiche e amministrative che rientrano nella propria giurisdizione, regole autonome da quelle americane. Si è pertanto cominciato a parlare del punto.eu agli inizi del Duemila. Avere un dominio proprio, con un'autorità accreditata che funga da registrar (gli operatori attraverso cui registrare un dominio), significherebbe, per l'Europa, sia avere uno strumento adatto a sviluppare una presenza comune nella rete, sia, soprattutto, affrancarsi definitivamente dalle autorità americane. In Italia, in cui i domini generici sono i meno diffusi, questo tipo di problematica potrebbe apparire poco necessaria, ma per altri paesi dell'unione, in particolare la Francia e la Germania, che hanno domini registrati.com (quindi gestiti dall'ICANN (Internet Corporation for Assigned Numbers and Names), la questione è scottante. Per quanto riguarda la regolamentazione di Internet troviamo da un lato il governo americano che si sente depositario, per tradizione, della facoltà di decidere su questione di Web; dall'altro lato la UE che tenta di arginare una regolamentazione a senso unico.

I primi domini dell'era "moderna" di Internet (quattro domini appartenenti ad altrettante Università Americane), furono registrati nell'aprile del 1985; il primo dominio.com arrivò solamente un mese più tardi: nel maggio del 1985 divenne operativo think.com. A ottobre dello stesso anno si contavano 14 domini universitari (.edu), 2 commerciali (.com) uno .org uno .gov ed anche un dominio .uk per il Regno Unito, che rappresentava il primo dominio a "due lettere.

Al di là delle questioni politico-economiche che stanno alla base della rivendicazione dell’UE, occorre dire che la classificazione operata dall’Icann è senz’altro più ragionevole, o per lo meno più riconoscibile di quella geografica adottata in Europa. Il punto edu identifica un sito universitario, quello com un sito commerciale, il punto org un sito che non ha fini di lucro e così via. Se digitiamo sul nostro computer uffizi.it finiamo diretti in un sito commerciale che sponsorizza olio d’oliva e aziende agrituristiche della Toscana e non quello che tutti si aspetterebbero di trovare il sito cioè della Galleria degli Uffizi.Una questione dunque aperta, quella dei domini che occorrerà affrontare anche dal punto di vista dell’utente che affronta la ricerca nel web.

I motori di ricerca.

come orientarsi nell’archivio Internet

Chiunque intenda accedere ad un documento in rete trova davanti a sé sostanzialmente due problemi, da un lato reperire il documento e dall'altro valutarne la correttezza. Entrambi i problemi sono tutt'altro che banali e più aumenta la mole dei documenti on-line, più la questione si complica perché le informazioni di reale interesse tendono a disperdersi nel caotico mare del web e con loro tende a sbiadirsi anche la possibilità di individuarne la fonte. Il secondo di questi problemi, per quanto interessante, si porta dietro una serie di considerazioni che in questa sede non è il caso di affrontare, il primo invece ha molto a che fare con le tecnologie applicative presenti in rete. Solitamente, a meno che non si conosca già l'URL del documento che si cerca, gli utenti iniziano la loro navigazione da uno dei vari motori di cui la rete si è dotata. In generale i motori di ricerca possono essere definiti come dei grandi archivi di dati, che contengono delle informazioni su un gran numero di pagine Web.

Una prima differenza riguarda il meccanismo attraverso il quale l'archivio, ovvero il data base, viene popolato. L'inserimento delle pagine Web negli archivi dei motori di ricerca può avvenire in due modi: attraverso la registrazione manuale in seguito a segnalazione da parte di un utente, o in modo automatico attraverso un particolare software, chiamato robot, che visita i vari siti dispersi nel Web inserendo le nuove pagine ed aggiornando le informazioni su quelle già censite. Alcuni, invece di limitarsi ad archiviare le pagine per permettere delle query, le classificano in base al contenuto all'interno di una struttura ad albero in cui via via che si scende si circoscrive l'argomento. In realtà in questo caso più che di veri e propri motori di ricerca si tratta di servizi di "Directory".

Ultimamente l'enorme diffusione di internet ha reso questi motori enormi ed è nato quindi il problema della visibilità dei documenti nella rete. Ormai non è più sufficiente essere indicizzati da uno o più motori perché spesso le query restituiscono elenchi di documenti rilevanti assolutamente ingestibili per cui non solo bisogna essere indicizzati ma bisogna anche avere un’ottima posizione nel risultato della ricerca che viene restituito all'utente ordinata per importanza. La posizione del documento nella schermata dipende dal valore assegnato dal motore di ricerca al documento stesso rispetto al parametro impostato per la ricerca.Questi parametri però non sono fissi ma dipendono dal motore di ricerca. Ognuno di questi motori ha infatti un proprio algoritmo in base al quale calcola la percentuale di rilevanza. Diventa pertanto importante conoscere, almeno approssimativamente, quali siano i criteri usati per fare questo calcolo. I gestori dei motori di ricerca però non svelano volentieri il loro segreto, perché hanno timore che i webmaster possano utilizzare l'algoritmo per fare "spooffing".

Lo spooffing consiste nella creazione di pagine trappola costruite apposta per ingannare il motore e per risultare tra prime posizioni nelle risposte alle query più comuni, e per poi ridirezionare l'utente verso un documento che nulla a che fare con l'argomento richiesto. Ma vediamo come funzionano i maggiori motori di ricerca internazionali e italiani.

Yahoo

Oltre ad essere il motore di ricerca più utilizzato, Yahoo è attualmente uno dei siti web più frequentati in assoluto. La sua storia nasce quando due studenti dell'università di Stanford, Jerry Yang e David Filo, alla fine del 1993, decisero di impegnarsi nel catalogare efficacemente la loro lista di bookmarks. Per fare questo svilupparono quello che possiamo definire il prototipo di Yahoo, ossia una lista di link suddivisa per categorie con la descrizione di ogni sito Web. Il progetto è cresciuto fino a diventare quello che è oggi: un’azienda che cataloga circa 1.000 siti al giorno. Quando una categoria diventa troppo grande, vengono create delle sottocategorie e questo ha permesso di realizzare un archivio molto ben strutturato. Nel 1995 Yahoo è stata acquistata da "Sequoia", una delle maggiori societa' di "venture capitalism" degli Stati Uniti, è un fenomeno di portata enorme non solo nel panorama di internet ma anche in quello dei media in generale. D'altra parte le ultime stime gli assegnano una media di 26 milioni di contatti al giorno, con punte di 40 milioni, numeri superiori anche a quelli di canali televisivi del peso di MTV o di giornali come il Time.
Yahoo più che un motore di ricerca è un servizio di directory che indicizza su richiesta. Questo vuol dire che alcuni addetti raccolgono le segnalazioni di nuovi siti e, valutandone il contenuto, li inseriscono all'interno di gruppi omogenei per contenuto. Il tutto risulta estremamente affidabile ed evita il rischio di spooffing.

Altavista

E' uno dei gli ultimi motori sbarcati sul web ed è il leader quanto a numero di pagine indicizzate (140 milioni) attraverso un software automatico che scandaglia il web a partire dai link presenti sulle pagine già indicizzate; è tra l'altro uno dei più utilizzati fuori dagli Stati Uniti. Nacque come progetto della Digital per dimostrare la velocità elaborativa dei processori Alpha a 64 bit, e fu messo in rete alla fine del 1995. Da allora si è diffuso enormemente e di questo motore esiste una versione italiana. Permette ricerche avanzate e prevede la possibilità di escludere documenti in cui sono molto rilevanti concetti attigui a quello richiesto; questa caratteristica insieme all'enorme numero di documenti indicizzati, lo rende molto adatto per ricerche che partono da una base molto vasta e procedono per affinamenti successivi.

Excite

E' uno dei motori più "anziani"; vanta 55 milioni di pagine indicizzate e circa 13 milioni di contatti al giorno. Anche questo motore, come Yahoo, è frutto dello studio di alcuni studenti dell'università di Stanford, che nel 1993 iniziarono a studiare un sistema per il reperimento di informazioni; arrivarono a sviluppare ICE (Intelligente Concept Extraction), una tecnologia semplice e potente in grado di reperire non solo occorrenze delle parole chiave ricercate, ma anche argomenti correlati. Da quello studio nacque Excite, che non è solo un sito che svolge servizi di ricerca bensì una rete di siti che include Magellan, un servizio di directory, City.net, una guida turistica, My Excite Channel, un servizio personalizzabile di novità ed informazioni e MailExcite che offre caselle di posta elettronia gratuite, servizio questo che si è poi esteso a quasi tutti i motori di ricerca. Non esiste una versione italiana di Excite.

Infoseek

Attivo dal 1994 può contare su un database di 30 milioni di documenti e su oltre 10 milioni di contatti giornalieri. Ha la caratteristica di indicizzare i documenti pochi minuti dopo la segnalazione, contro una media di diverse settimane. Questo fa sì che sia però anche il motore più esposto ad operazioni di spooffing per veloci pubblicità, tanto che ultimamente è stato dotato di filtri che, di contro, ne diminuiscono la base di documenti indicizzati; esiste la versione italiana e le ricerche di intere frasi sono automatiche. Per definire la percentuale di rilevanza di ogni documento rispetto alla richiesta utilizza un metodo piuttosto articolato che prevede la considerazione dell'occorrenza della parola nel titolo, nei metatags, nei primi 200 caratteri del documento, e che tiene in considerazione, assegnandogli una specie di bonus, i documenti che presentano parole rare, ovvero non molto presenti nel database. Valuta anche le occorrenze dell'URL del documento negli altri documenti indicizzati. In assenza di "Title" di un documento utilizza le prime linee del testo.

Lycos

Lycos, anch'esso attivo già dal 1994, indicizza 30 milioni di documenti e vede la sua home page contattata 9 milioni di volte al giorno. Si caratterizza per l'indicizzazione dei file HTML ma soprattutto per quelli audio e video, il che permette ricerche particolareggiate di suoni ed immagini. Non considera i metatags e il loro contenuto come più rilevante rispetto al testo ed esclude documenti con testo invisibile. Indicizza invece le pagine ponte e permette la ricerca per mezzo di operatori, ma non di intere frasi.

Hot Bot

Hot Bot ha visto la sua pubblicazione nel maggio 1996 ad opera di Wired, una nota rivista di informatica. E' secondo solo ad Altavista quanto a pagine indicizzate (110 milioni) anche se è un po' indietro per i contatti giornalieri (6 milioni al giorno). La sua ricerca è basata sulla tecnologia Inktomi, sviluppata a Berkley che permette di garantire risultati molto precisi nonostante l'enorme base di documenti. Vanta un'interfaccia grafica molto semplice per l'esecuzioni di query condizionate da operatori o da altri vincoli. Considera i metacaratteri come campi privilegiati per la richiesta e non indicizza le pagine con testo invisibile.

Virgilio

Virgilio è un po' l'alter ego Italiano di Yahoo e vanta quasi 300.000 mila contatti giornalieri. E' una directory che raccoglie circa 40.000 siti immessi manualmente e valutati da personale interno, dopo un’esplicita richiesta da parte del web master, ad un ritmo di circa 150 al giorno. Offre ovviamente la possibilità di effettuare ricerche per parole chiave e classifica poi i siti rilevanti ordinando alfabeticamente il titolo.

Questo breve excursus attraverso i principali motori di ricerca internazionali ed italiani forse riesce a rendere l'idea della difficoltà di costruire documenti che, in caso di ricerca sull'argomento trattato, si trovino in una posizione accettabile della classifica di quelli rilevanti. Sebbene ogni motore utilizzi un algoritmo caratterizzato in qualche modo, è assolutamente fondamentale la presenza della parola chiave, nell'URL, nel titolo o nei primi 200 caratteri ed è anche molto importante che il documento non sia isolato nel mare della rete. La breve storia di Internet è piena di strani episodi legati alla non affidabilità dei motori di ricerca. E’ il caso di citare quel che avvenne nel 1996 ad opera di "Etoy" un gruppo di ragazzi che attraverso una serie di pagine ponte ridirezionavano gli utenti nella "home page" del loro sito azzerando, tramite uno script, l'history del browser e facendo comparire una scritta che spiegava il loro gesto. Il gruppo, capace di dirottare in sei mesi circa un milione di navigatori, vinse il premio per la migliore opera d'arte elettronica dell'anno mettendo in luce in modo evidente i problemi dei motori di ricerca e del reperimento in genere d’informazioni on-line. Nonostante tutti i tentativi fatti per arginare questi fenomeni, il problema è di difficile soluzione perché affonda le sue radici nell’assoluta libertà di HTML. Il problema del reperimento delle informazioni è stato risolto grazie a un meccanismo di classificazione e ricerca basato sul concetto di metainformazione. Le metainformazioni sono quelle usate dai bibliotecari per schedare i libri posseduti dalla biblioteca; grazie a queste, per cercare un testo non è necessario passeggiare lentamente davanti agli scaffali, ma è sufficiente consultare un cassettino dove i libri sono ordinati in base al titolo, all'autore o al contenuto. Lo stesso approccio è stato più volte proposto anche per risolvere il problema dell'accesso alla documentazione elettronica. Senza dover necessariamente ricorrere ad un enorme schedario elettronico sarebbe sufficiente standardizzare delle metainformazioni da inserire in ogni documento on-line, in modo da poterle richiamare attraverso un motore di ricerca. In questo caso si riuscirebbe ad unire i vantaggi della ricerca automatizzata a quelli della ricerca strutturata. Ma questo meccanismo funzionerebbe solo se i browsers, gestissero in qualche modo gli errori. Molte speranze vengono riposte in XML il nuovissimo metalinguaggio web, che sembra poter inglobare senza troppi problemi questo tipo di approccio.

 

 

 

 

 

 

 

2. il web Usabile

 

COSA S’INTENDE PER USABILITA’

Il termine usabilità è stato introdotto nel linguaggio corrente traducendo quello inglese "usability". Nei nostri dizionari troviamo, per ora, soltanto l’aggettivo "usabile", ma data l’ampia diffusione del sostantivo "usabilità", lo adotteremo nonostante che, anche il Thesaurus, non lo riconosca come parola italiana.

L’usabilità di un sito web è fondamentale per chi lo realizza e per chi ne fruisce. Ma l’importanza dell’usabilità nella realizzazione delle interfacce utente non è emersa con l’avvento del World Wide Web, si tratta in realtà di una disciplina scientifica presente all’interno della Computer Science da almeno una quindicina d’anni, che conta su una vastissima letteratura, numerosi centri di ricerca, corsi universitari e continui studi di approfondimento. L’ingegneria dell’usabilità ha da sempre una rilevanza fondamentale per tutte le case produttrici di software, poiché un prodotto mal progettato, tanto da renderne difficile l’uso, è rifiutato dagli utenti finali.

I siti web, al pari di tutti gli strumenti che utilizziamo, sono dei prodotti con i quali svolgiamo dei compiti e possiamo quindi valutarne il grado d’usabilità. Ogni volta che non riusciamo a trovare un "link" a concludere una procedura d’acquisto o a prendere una decisione in base alle informazioni ottenute da una ricerca, ci troviamo di fronte ad un problema d’usabilità. Un sito web può essere definito usabile quando soddisfa i bisogni informativi dell’utente finale che lo sta interrogando, fornendogli facilità di accesso e di navigabilità e consentendo un adeguato livello di comprensione dei contenuti. Nel caso non sia disponibile tutta l’informazione, un buon sito demanda ad altre informative. Gli utenti passano volentieri il loro tempo sul web, e questo è dimostrato dal successo e dalla diffusione, ma lo fanno esclusivamente nei siti che li ospitano al meglio. L’usabilità del web è pertanto un obiettivo irrinunciabile: un visitatore che abbandona un sito perché non riesce ad usufruirne in modo adeguato, è un utente che difficilmente vi ritornerà.Possiamo dunque considerare l'usabilità come una proprietà indispensabile e da non ritenere mai scontata di un prodotto multimediale, in quanto svolge diverse funzioni: evidenziare tutte le potenzialità che uno strumento possiede, suggerire "il modo migliore" per raggiungere il risultato desiderato, precludere o comunque mettere in risalto le soluzioni non efficaci, che possono allontanare dal conseguimento dell'obbiettivo o addirittura risultare dannose per il raggiungimento dello scopo per cui è stato utilizzato lo strumento.

Durante il terzo appuntamento dell’E-Commercing 2000, organizzato anche quest’anno da Somedia per gli operatori di E-business sulle nuove tecnologie e sulle nuove tendenze del World Wide Web, ha avuto particolare rilievo il tema dell’usabilità in cui i temi del commercio telematico sono stati stemperati in favore di strategie di comunicazione attraverso il web.

"La prima relazione, I motori dell'evoluzione dei siti centrata sull'utente finale, è stata tenuta da Michele Visciola che ha come motto della propria mission "Internet per tutti". Il relatore ha puntato l'indice sulla qualità dei siti che sono attualmente pubblicati; secondo Visciola, che cita le parole del guru dell'usabilità Jakob Nielsen quasi il 90% dei siti Web sarebbero giudicati non conformi da un ingegnere dell'usabilità. Ciò provoca un difetto di comunicazione e dunque la perdita di possibili visitatori che non siano inclusi nel canone proposto dal sito: Visciola ha quantificato che un buon 60% di coloro che non ancora usano Internet pur potendo permetterselo (i cosiddetti diffidenti) sarebbero certamente più convinti ad affrontare la rete se potessero interagire con una macchina meno complessa. L'usabilità però non riguarda soltanto il campo della maggiore o minore semplicità d’utilizzo, ma è anche una risorsa per poter mettere a disposizione uno strumento così importante come il World Wide Web anche a coloro che hanno problemi fisici, sia visivi che motori, o di altra natura. Una questione, insomma, più sociale che economica". I punti di partenza per sviluppare una riflessione sui nuovi modi di costruire i siti sembrano essere l’usabilità, l’interazione e la personalizzazione al fine di rendere il web più diffuso e fruibile, renderlo meno statico, facilitare l'accesso dettagliato all'informazione.

Lo standard ISO/IEC 9126 "Information technology - Software product evaluation - Quality characteristics and guidelines for their use" definisce l'usabilità come "la capacità del software di essere compreso, appreso, usato e gradito dall’utente quando usato in determinate condizioni".

Lo standard ISO 9241-11 "Ergonomic requirements for office work with visual display terminals - Guidance on usability", invece, definisce l'usabilità come "il grado in cui un prodotto può essere usato da specifici utenti per raggiungere specifici obiettivi con efficacia, efficienza e soddisfazione in uno specifico contesto d'uso". 

Jakob Nielsen, definisce l'usabilità come la misura della qualità dell'esperienza di un utente in interazione con qualcosa, sia esso un sito web o un’applicazione software tradizionale o qualsiasi altro strumento con il quale l'utente può operare. Secondo Nielsen, un prodotto è usabile quando è facile da apprendere, consente un’efficienza di utilizzo, è facile da ricordare, permette pochi errori d’interazione e di bassa gravità, è piacevole da usare.

In sintesi, quindi, per essere usabile, un prodotto dovrebbe:

Questi tre punti, oltre che sintetizzare i vari aspetti che le diverse definizioni d’usabilità evidenziano, pongono l'accento su alcuni passi e attività da compiere durante il ciclo di produzione di un sito, al fine di garantire l'usabilità del prodotto. Infatti, affinché un prodotto sia adeguato ai bisogni e alle aspettative degli utenti finali, occorre conoscere bene le caratteristiche degli utenti, le attività che svolgono e il contesto organizzativo e sociale nel quale sono inseriti e operano. Per quanto attiene invece la facilità di comprensione e di utilizzo, allo stato attuale, sono disponibili principi e linee-guida di interfaccia consolidati, basati sulle conoscenze degli aspetti cognitivi e comportamentali dell'interazione uomo-computer, che possono agevolare la realizzazione di un prodotto usabile. Tuttavia, questi aspetti non sono sufficienti. Per garantire l'usabilità è di fondamentale importanza confrontarsi costantemente con gli utenti finali, con coloro che saranno direttamente operativi sul prodotto una volta rilasciato, per verificare, valutare e, eventualmente, misurare le scelte di progettazione in termini di reale gradimento dell’utente. 

 

I DIECI COMANDAMENTI DI NIELSEN

I problemi d’usabilità e le difficoltà d’interazione nascono quando l'utente non riesce ad intuire le modalità di funzionamento del prodotto e deve sforzarsi di eseguire azioni che non risultano completamente rispondenti con le sue naturali modalità d’esecuzione o con le sue aspettative. Non esistono standard di riferimento per la progettazione di siti web, tuttavia si possono applicare principi che permettono la costruzione di modelli del tutto soggettivi, ma che hanno grande valenza nel comprendere cosa di un sito, o più in generale di un ipertesto, sia desiderabile e cosa no. Jakob Nielsen descrive un metodo basato sull'impiego di un insieme predefinito di euristiche - linee guida - come test di utilizzabilità: il compito di chi valuta è quindi identificare le caratteristiche delle interfacce che violano i principi di usabilità.
Nielsen raccomanda le seguenti dieci caratteristiche:
Visibilità dello stato del sistema: è molto importante mantenere gli utenti informati sullo stato delle loro azioni. Il sistema dovrebbe sempre tenere informati in tempo ragionevole gli utenti su quello che succede per mezzo di un feedback.
Corrispondenza tra il sistema ed il mondo reale: è sempre bene conoscere ed utilizzare il linguaggio degli utenti finali; questo accorgimento assicura una migliore comprensione e memorizzazione dei contenuti a chi visita il sito ed evita che l'utente interessato ad informazioni esca dal sito senza averle visionate, perché ingannato da una terminologia e da immagini che non riesce ad associare alle informazioni che sta cercando.
Dare all'utenza controllo e libertà: in genere, è bene lasciare agli utenti il controllo sul contenuto informativo del sito, permettendo loro di accedere agevolmente agli argomenti presenti e di navigare a seconda delle proprie esigenze. E’ fondamentale segnalare i link in modo adeguato, senza ambiguità di significato e posizionandoli nella pagina dove l'utente si aspetta di trovarli rispetto alle pagine precedenti.
Consistenza: è fondamentale riportare in ogni pagina elementi grafici sempre uguali, che riconfermino all'utente il fatto che si sta movendo all'interno dello stesso sito. Se, ad esempio, passando da una pagina all'altra, gli utenti incontrassero uno stile grafico diverso da quello della pagina appena visitata, sarebbero costretti ad analizzare ogni oggetto presente per verificare se si trovano ancora nello stesso sito (e se sì, in quale settore), o se ne sono usciti per errore.
Prevenzione dall'errore: occorre evitare di porre l'utente in potenziali situazioni critiche o di errore ed assicurare la possibilità di uscirne tornando allo stato precedente. E' bene segnalare chiaramente in quali pagine conducono i link e cosa vi si troverà, così da non generare false aspettative, poi disilluse, o confusione nella scelta dei collegamenti da visitare; è bene rendere inoltre sempre disponibili le funzioni per uscire dal programma o per ritornare alla "home page".
Riconoscimento più che ricordo: è consigliata la scelta di layout semplici e schematici, per facilitare l'individuazione e la consultazione delle informazioni sulle pagine. E ' bene quindi segnalare sempre chiaramente i link, ed altri elementi utili alla navigazione, per evitare che gli utenti debbano "scoprirli" da soli, ogni volta che entrano nel sito.
Flessibilità ed efficienza: è bene dare agli utenti la possibilità di una navigazione differenziata all'interno del sito, a seconda della propria esperienza nell'utilizzo del Web e della conoscenza del sito stesso. Gli utenti non esperti, ad esempio, amano essere guidati passo dopo passo, mentre gli utenti più esperti preferiscono utilizzare scorciatoie, delle quali anche utenti non esperti, man mano che aumenta il loro livello di esperienza, possono usufruire.
Un altro aspetto dell'efficienza è relativo anche al tempo di risposta del sistema alle azioni fatte dall'utente, problema che nelle applicazioni web è tra i più critici. Nei siti web, il tempo massimo di attesa non deve superare i 10 secondi, tempo oltre il quale gli utenti non mantengono più l'attenzione sul dialogo e iniziano a cercare un altro sito.
Estetica e progettazione minimalista: le pagine di un sito web non dovrebbero contenere elementi irrilevanti o raramente utili. Gli elementi grafici inseriti nelle pagine se troppo colorati, elaborati e di dimensioni troppo grandi rispetto ai testi, rischiano di mettere in secondo piano il contenuto informativo della pagina: gli utenti saranno così troppo impegnati ad individuare il significato delle immagini e a cercarne la coerenza con i restanti elementi del sito, piuttosto che dedicarsi all'analisi dei contenuti informativi delle pagine.
Aiutare gli utenti a riconoscere, diagnosticare ed uscire dalle situazioni di errore: i messaggi di errore dovrebbero indicare con precisione il problema e suggerire una soluzione costruttiva. Ad esempio, qualora l'utente non avesse compilato correttamente uno o più campi a disposizione sulla pagina, il messaggio successivo all'invio dovrebbe segnalargli quali errori sono stati commessi, cosi da permettergli di recuperare con facilità l'invio successivo.
Aiuto e documentazione: è meglio che il sistema si possa usare senza documentazione, ma questa resta necessaria. L'aiuto dovrebbe essere facile da ricercare e focalizzato sulle attività dell'utente, elencare azioni concrete eseguibili e mantenere dimensioni contenute.

I metodi per la valutazione dell’usabilità

I metodi di valutazione dell’usabilità di un sito sono molti e ognuno presenta caratteristiche che lo rendono adeguato a particolari prodotti, in fase iniziale, in fase di costruzione o di verifica finale, in base agli obiettivi specifici che s’intende valutare.

Quali siano i metodi più efficaci è difficile da dire; dipende da cosa si vuole valutare, dal livello d’usabilità che si vuole garantire, dal numero di riprogettazioni che è possibile effettuare.

I controlli d’usabilità vanno effettuati fin dal momento della progettazione cartacea dell’interfaccia, come si usa in molte società di software americane, per evitare di dover "disfare" in seguito i prototipi già funzionanti. Non basta nemmeno effettuare una sola valutazione (se non altro il secondo controllo va fatto per verificare le modifiche apportate dopo il primo), è invece consigliato iterare il processo di riprogettazione, ripetendo e integrando i controlli ogni volta. Jacob Nielsen sostiene che è meglio fare un test d’usabilità ogni volta con cinque persone che uno solo con venti utenti.

I metodi più utilizzati

A) La valutazione euristica

E’ uno dei principali metodi di "usability discount" definiti per rendere maggiormente snelle e veloci le attività di verifica dell’usabilità. Lo scopo della valutazione euristica è quello di verificare se l’interfaccia del prodotto rispetta i principi fondamentali dell’usabilità. Può essere effettuata non appena sono disponibili le prime bozze interfaccia, anche di tipo cartaceo. Si tratta di un metodo ispettivo che non prevede il coinvolgimento degli utenti finali del prodotto, ma si basa sul giudizio di più esperti d’usabilità. Dal punto di vista pratico, la valutazione euristica consiste in una serie di navigazioni, effettuate separatamente da ciascun esperto sul prodotto software, durante le quali sono valutati sia gli aspetti statici dell’interfaccia (layout delle finestre, etichette, pulsanti ecc.), che di comportamento (logica d’interazione, diagnostica ecc.) rispetto alle linee guida di riferimento.

Al termine delle singole sessioni, gli esperti discutono congiuntamente i risultati ai quali sono pervenuti al fine di sintetizzare i principali problemi d’usabilità del prodotto valutato, concordare le eventuali le relative ed eventuali discordanze nel giudizio. Nielsen raccomanda di effettuare la valutazione euristica con non meno di tre esperti di usabilità, in riferimento ad un numero ottimale che va da tre a cinque esperti. Da studi da lui effettuati si rileva infatti che un solo esperto riesce a diagnosticare il 35% dei problemi, mentre cinque esperti possono diagnosticare il 75% .

  1. L’usability walkthrough

Esistono diverse varianti di "usability walkthrough", un metodo di valutazione dell'interfaccia basato sul giudizio di esperti di usabilità, progettisti, utenti e altre figure professionali. Come altri metodi ispettivi, tutti i metodi walkthrough possono essere applicati non appena sono disponibili le prime bozze di interfaccia, anche di tipo cartaceo. Uno dei walkthrough più noti è il "cognitive walkthrough", basato sulla teoria dell'apprendimento esplorativo di Polson e Lewis. Lo scopo del cognitive walkthrough è di evidenziare eventuali errori di progettazione dell'interfaccia che potrebbero interferire negativamente con la facilità di apprendimento delle modalità di utilizzo da parte dell'utente finale. Si assume che altre caratteristiche del prodotto, come la funzionalità e la facilità d’uso, siano correlate con la facilità di apprendimento: se un prodotto non presenta le funzionalità adeguate alle attività che gli utenti devono svolgere o la logica di interazione è farraginosa, allora sarà anche difficile apprenderne e ricordarne le modalità di utilizzo. Generalmente, una sessione di cognitive walkthrough prevede che l'autore del prodotto ne illustri le caratteristiche ad un gruppo di valutatori composto da progettisti, esperti di usabilità, technical writer, responsabili della formazione, ecc... e fornisca informazioni su:

Si eseguono quindi i vari compiti sull'interfaccia e, per ogni passo, il gruppo di valutatori giudica le caratteristiche delle schermate che si presentano e le azioni richieste all'utente cercando di rispondere a domande del tipo:

Un’interessante variazione del cognitive walkthrough è il riferimento alla teoria dei sette stadi dell'azione di Donald Norman. In questo caso, gli aspetti su cui i valutatori giudicano l'interfaccia, non fanno riferimento alla teoria dell'apprendimento di Polson e Lewis ma si basano, appunto, sulla teoria dell'azione di Norman. 

Un'altra tipologia di walkthrough è il "pluralistic walkthrough", al quale partecipano principalmente tre tipologie di valutatori: rappresentati degli utenti finali, esperti d’usabilità e progettisti software. A differenza di altri metodi walkthrough, nel pluralistic walkthrough tutti i partecipanti assumono il ruolo degli utenti finali e, prima di eseguire le azioni sull'interfaccia, queste vengono scritte su fogli, in modo che la strategia di interazione e le intenzioni esplicitate dall'interfaccia possano essere analizzate nel dettaglio per il miglioramento dell'usabilità.

  1. La valutazione cooperativa

La valutazione cooperativa è un metodo basato sul "thinking aloud", una tecnica utilizzata inizialmente nel campo della ricerca psicologica che consiste nel far verbalizzare agli utenti quello che pensano durante l'esecuzione di una attività o compito. Nell'applicazione del "thinking aloud" per la valutazione dell'usabilità, l'utente prova ad eseguire delle attività in interazione con il prodotto software e verbalizza tutto quello che pensa durante l'interazione. Seduto vicino all'utente, un osservatore registra (grazie al supporto di una videocamera o, semplicemente, con carta e matita) quello che l'utente dice e esegue sull'interfaccia, con particolare riferimento alle difficoltà che incontra. L'osservatore ha un ruolo passivo e non interviene durante la sessione d’interazione. Il "thinking aloud" consente di individuare i problemi d’usabilità in termini di scostamento della logica d'interazione dal modello dell'attività posseduto dall'utente e pertanto risulta particolarmente utile per la valutazione di prodotti della fase alta del ciclo di produzione. La valutazione cooperativa è simile al "thinking aloud", ad eccezione del fatto che l'osservatore e l'utente interagiscono durante la sessione di valutazione. L'utente è incoraggiato, durante l’uso, a criticare attivamente il prodotto, mentre l'osservatore può intervenire durante i momenti più critici dell'interazione per indagare maggiormente sulle difficoltà dell'utente e verificare proposte alternative. Questa cooperazione tra utente e osservatore rende l'attività maggiormente produttiva e consente di superare alcuni problemi connessi con il "thinking aloud" come, ad esempio, il fatto che gli utenti tendono ad incolpare se stessi per gli errori di interazione che commettono o tendono ad eseguire un’azione solo perché è stata verbalizzata. Occorre considerare anche che il "thinking aloud" può creare una situazione di carico cognitivo nell'utente e interferire con l'esecuzione dell'attività. E' sempre consigliabile, prima di iniziare una sessione di  valutazione, far esercitare l'utente su questa tecnica. Il numero di utenti necessari per effettuare una valutazione cooperativa varia in relazione alla quantità delle classi di utenza cui è destinato il prodotto e ai risultati dell'analisi costi/benefici. Jakob Nielsen suggerisce il seguente criterio per decidere il numero di utenti da coinvolgere: 

D) I test d’usabilità

Il test d’usabilità rappresenta uno dei metodi più efficaci di verifica dell'usabilità nei suoi diversi aspetti, compresa la misurazione. Consiste nell'esecuzione, da parte di un campione di utenti finali, di una serie di compiti o attività in interazione con il prodotto software da testare. Le difficoltà che gli utenti incontrano durante il test vengono analizzate per individuarne le cause e decidere le soluzioni per il miglioramento del prodotto. Generalmente, i test di usabilità hanno luogo all'interno di ambienti attrezzati e controllati come i laboratori di usabilità, ma possono essere effettuati anche sul campo, sul posto di lavoro dell'utente, attraverso laboratori portatili. I laboratori di usabilità fissi sono tipicamente attrezzati con due stanze: una stanza utente e una stanza di controllo. La stanza utente è quella dove l'utente esegue il test, mentre la stanza di controllo è quella in cui esperti di usabilità, responsabili del prodotto e progettisti seguono l'interazione tra l'utente e il prodotto. Il controllo sulla stanza utente dalla sala di osservazione è assicurato da vetri "one way" e da telecamere che consentono anche la registrazione video e audio del comportamento dell'utente durante il test. Semplificando, il test di usabilità si attua in tre fasi fondamentali. 

Nella fase di preparazione si definiscono gli obiettivi del test e le parti del prodotto da testare, si individuano e progettano i compiti che gli utenti dovranno svolgere durante il test, si selezionano gli utenti partecipanti. 

La fase esecutiva consiste nell'esecuzione dei compiti da parte degli utenti. Ciascun utente, singolarmente, dalla postazione di lavoro della stanza utenti, esegue uno per volta i compiti progettati. Dalla sala di controllo gli osservatori registrano e annotano tutto quello che l'utente fa e dice durante il test. La registrazione del test può essere supportata anche da strumenti semi-automatici di logging, convenienti soprattutto nel caso si debbano calcolare specifiche metriche di usabilità. Questi strumenti consentono di "marcare" il nastro della videoregistrazione ogni volta che, durante il test, accadono eventi considerati rilevanti dall'osservatore umano. La "marcatura" diventa la base-dati per derivare, in fase di analisi, i dati quantitativi sull'usabilità del prodotto in valutazione, come ad esempio, quante volte è accaduto un determinato evento, quanto tempo l'utente è stato impegnato in quell'evento rispetto al tempo totale del compito, ecc... 

La fase di analisi è quella in cui vengono rivisti i dati del test, individuate le difficoltà dell'utente, le relative cause e eventualmente derivate le metriche. Sulla base dei risultati dell'analisi si decidono le soluzioni di miglioramento da apportare al prodotto. Il test di usabilità è particolarmente indicato per la valutazione di prototipi funzionanti e di prodotti finali, prima del loro rilascio sul mercato.Il numero di utenti da coinvolgere in un test di usabilità varia in relazione alla quantità delle classi di utenza a cui è destinato il prodotto e ai risultati all'analisi costi/benefici. Può essere adottata la seguente regola: 

E) I questionari

I questionari sono strumenti di valutazione dell'usabilità molto economici poiché possono essere somministrati ad un numero molto ampio di utenti contemporaneamente. Allo stesso tempo, però, sono soggetti a tutte le limitazioni connesse con l'utilizzo dei questionari in generale (soggettività dei dati, difficoltà a controllare le condizioni di somministrazione in remoto). Dal momento che la compilazione di un questionario implica la conoscenza del prodotto sul quale si deve esprimere il giudizio, i questionari sono particolarmente adatti per la valutazione dell'usabilità di prodotti già rilasciati. Possono quindi essere utilmente utilizzati per rilevare e monitorare la percezione di usabilità che maturano gli utenti in relazione al tempo di utilizzo e decidere, quindi, i momenti di interventi di manutenzione sul prodotto. I questionari di usabilità più noti sono:

SUMI (Software Usability Measument Inventory). 

Sviluppato dallo Human Factors Research Group dell’Università di Cork (Irlanda), si compone di 50 domande alle quali l’utente risponde in termini di accordo, indeciso e disaccordo. Le domande vertono su cinque aspetti dell'usabilità (efficiency, affect, helpfulness, control, learnability). I punteggi forniti da SUMI sono standardizzati (mediana = 50 e deviazione standard + 10). SUMI è stato tradotto in diverse lingue, tra cui l'italiano.

WAMMI (Website Analysis and MeasureMent Inventory). 

Sviluppato in collaborazione dalla Nomos Management (Stoccolma) e dallo Human Factors Research Group dell’Università di Cork (Irlanda), è un questionario specifico per la rilevazione dell'usabilità dei siti web. Si compila on line e consente di rilevare il giudizio degli utenti sui seguenti aspetti di usabilità delle interfacce: attractiveness, controlability, efficiency, helpfulness, learnability.  Come SUMI, i punteggi ottenuti attraverso WAMMI sono standardizzati. E' disponibile in tre versioni (basic, advanced, customised) e in diverse lingue, tra cui l'italiano.

QUIS (Questionnaire for User Interaction Satisfaction).

Sviluppato dallo Human-Computer Interaction Lab (HCIL) dell'University del Maryland a College Park.  Si compone di undici sezioni, customizzabili, ciascuna dedicata alla rilevazione del giudizio degli utenti su specifici aspetti dell'usabilità del prodotto: screen factors, terminology and system feedback, learning factors, system capabilities, technical manuals, on-line tutorials, multimedia, voice recognition, virtual environments, internet access, software installation. Gli utenti rispondono alle domande delle varie sezioni all'interno di una scala da 1 a 9. QUIS è disponibile in versione cartacea e in versione compilabile on-line. 

 

Come si misura l'usabilità

La misurazione dell'usabilità si basa su dati di prestazione dell'utente in interazione con il prodotto software o sul suo giudizio. Viene quindi effettuata all'interno dei controlli che prevedono il coinvolgimento degli utenti finali, come la valutazione cooperativa, la somministrazione di questionari e, in particolare, il test di usabilità. A meno che non si utilizzino strumenti come i questionari, la misurazione dell'usabilità è un’attività piuttosto onerosa, e viene meglio condotta con l'ausilio di strumenti di supporto come quelli che tipicamente vengono utilizzati nei laboratori di usabilità in fase di registrazione dell'interazione utente-prodotto e in fase di analisi dei risultati. Inoltre, la misurazione richiede un serio impianto sperimentale delle prove da effettuare, a partire dalla definizione precisa di:

Le metriche e le misure da raccogliere

Essendo l'usabilità determinata da diverse caratteristiche, è ovvio che esistono diverse metriche di usabilità e, per ciascuna metrica, diverse misure. Riprendendo i vari aspetti che definiscono l'usabilità e partendo proprio da quelli definiti dalla norma ISO 9241-11 "Ergonomic requirements for office work with visual display terminals - Guidance on usability", si possono individuare le metriche più comuni:

Per quanto riguarda le misure, quelle tipiche sono le seguenti:

La scelta delle metriche e delle misure da raccogliere dipende, ovviamente, dagli obiettivi di usabilità da verificare e dall'impianto di verifica impostato. Assumendo, ad esempio, che si debbano raccogliere dati metrici sull'efficienza d'uso, si stabilisce che questa metrica è data dal tempo necessario agli utenti per eseguire una serie di compiti. Occorre quindi decidere in modo preciso cosa si intende per inizio e fine del compito, ovvero quando far partire e quando fermare il conteggio del tempo. In questo caso, è implicito che il metodo di raccolta dati è quello del test in laboratorio.     

 

Analisi qualitativa o misurazione quantitativa?

Quando è il caso di procedere ad un’analisi qualitativa e quando invece è più opportuno misurare l'usabilità? La raccolta e l'analisi metrica ha dei costi superiori (richiede un numero maggiore di utenti e più tempo per la fase di analisi dei risultati), ma è anche vero che spesso i numeri parlano meglio delle parole. Nella decisione tra l'uno e l'altro approccio si può adottare il seguente criterio:

allora è importante anche la rilevazione metrica. 

Quello che va comunque sfatato è l'idea del "numero magico". Non esiste un numero unico in grado di illustrare in modo compiuto la complessità dell'usabilità. Basta pensare al rapporto tra l'efficacia e l'efficienza. Un prodotto può essere realizzato in modo da consentire l'esecuzione corretta e completa di un’attività, perché, ad esempio, utilizza "wizard" che guida nell’esecuzione del compito e quindi riduce le possibilità di errore. Ma se nella suddivisione dei contenuti dentro le singole finestre o pagine non si tiene conto dell'unità di lavoro, si rischia di spezzettare l'attività in tanti passi operativi, ovvero si costringe l'utente a navigare attraverso un numero eccessivo di finestre o pagine. Questo compromette ovviamente l'efficienza dell'utente, oltre che il suo buon umore. A questo proposito vengono in mente le tante "form" attraverso le quali occorre passare quando si vuole fare una registrazione on-line a uno dei tanti servizi gratuiti di posta elettronica e di accesso ad Internet.

 

La Progettazione orientata all'usabilità

La progettazione orientata all'usabilità implica la progettazione completa del sito in funzione della sua fruibilità, tenendo conto di: scopo, contenuti, struttura ed interfaccia del sito. "Design for usability" è un termine che si riferisce al design di sistemi informatici, in modo che possano essere effettivamente integrati nella pratica lavorativa delle organizzazioni specifiche. Il principio va oltre il concetto d’interfaccia: design for usability comprende il design dell'infrastruttura delle risorse computazionali necessarie per supportare ed aiutare gli utenti ad impararne un uso efficace, è finalizzata ad aumentare la probabilità che gli utenti utilizzino realmente un artefatto.
Secondo Kling e Elliott il ciclo di vita nella progettazione di un artefatto informatico deve rispettare alcune condizioni:
· conoscere gli utilizzatori; è necessario cioè conoscere, per quanto possibile, le tipologie dei potenziali utenti del sito;
· analizzare i progetti concorrenti;
· stabilire degli obbiettivi di usabilità;
· organizzare il design in maniera parallela, utilizzando differenti designers per esplorare

differenti alternative;
· ricorrere al design partecipato, che coinvolge gli utenti nel processo di design;
· coordinare il design dell'intero sistema;
· applicare delle linee guida;
· creare dei prototipi per testare il sito ex ante;
· applicare dei test empirici;
· adottare un approccio di design interattivo; adattare cioè il design ai risultati delle fasi di test;

· raccogliere il feedback degli utenti.
Nel caso di un sito internet la progettazione orientata all'usabilità implica la progettazione completa del sito in funzione della sua fruibilità.
La progettazione del sito passa attraverso alcuni punti fondamentali:
· definizione dello scopo;
· definizione dei contenuti;
· progettazione della struttura;
· progettazione dell'interfaccia.
a) Definizione dello scopo.
E' già stato rilevato come Internet sia il fenomeno socioeconomico di questo decennio. In un contesto non proprio all'avanguardia come l'Italia i navigatori potenziali (che hanno la possibilità di accedere a Internet) sono più di dieci milioni, e quasi sei milioni sono navigatori abituali. Questo fatto rende di per sé attraente, da parte di un'azienda o un'organizzazione, l'idea di approdare su Internet con una propria presenza. In contesti tecnologicamente ed economicamente più aggressivi come gli Stati Uniti c'è chi prevede (e fra questi l'amministratore delegato di un gigante industriale come Intel) che essere su Internet nell'arco di un paio d'anni sia una questione di sopravvivenza.
Sicuramente la presenza su Internet non garantisce di per sé l'utilità per l'organizzazione. Nel momento in cui si decide di investire nel mezzo, è necessario porsi seriamente il problema del suo utilizzo. Una presenza in rete approssimativa risulta non solo inutile, ma dannosa, poiché compromette l'immagine dell'organizzazione. Nielsen identifica dieci errori che il management di un'organizzazione deve assolutamente evitare. Fra questi, alcuni sono concernenti la definizione dello scopo.
· non sapere il perché: andare in Internet perché lo fanno tutti è inutile e dannoso, bisogna avere una consapevolezza del mezzo, dei limiti, delle potenzialità;
· progettare un sito che piaccia ai dirigenti: può risultare naturale, per chi si assume la responsabilità di un progetto Internet, di assecondare i desideri dei propri superiori, del proprio consiglio di amministrazione, dimenticando che non sono loro gli utenti ai quali il sito è rivolto;
· considerare il web come un medium secondario e sottovalutarne l'impatto strategico: l'importanza della rete varia a seconda della tipologia dell'organizzazione, dell'area geografica in cui si colloca, del contesto culturale dei suoi utenti; la presenza della rete sta però diventando sempre più pervasiva.

In Italia il 10% della popolazione naviga con una certa frequenza e, fra qualche anno, gli utenti di Internet saranno tanti che nessuno potrà permettersi di trascurarne l'importanza; se usato con consapevolezza, il web può rivelarsi più efficace ed economico dei mezzi di comunicazione tradizionali. Tutto ciò senza considerare il fatto che la tecnologia può essere utilizzata per migliorare e rendere più efficiente l'organizzazione interna, abbattere dei costi (es. telefono e fax, ma anche nei rapporti con i fornitori.

 

b) Definizione dei contenuti
I contenuti devono soddisfare le aspettative dell'utente. Una persona accede ad un sito per trovare delle informazioni, delle risorse, per ottenere un servizio; se non trova quello che cerca, quello che si aspetta, si rivolgerà altrove.
c) Tipologia dei contenuti

E' importante che sia chiaro quali contenuti siano presenti nel sito: un utente approda ad un sito alla ricerca di qualche cosa; è opportuno che egli trovi quello che sta cercando e, possibilmente, trovi più di quanto immaginasse di trovare. A questo proposito è utile capire quali siano le motivazioni e gli scopi che portano un utente a visitare un sito o un documento; le risorse devono soddisfare le aspettative dei visitatori.
Kanerva e Coll identificano alcuni punti che sotto il profilo dei contenuti vanno rispettati:
· contenuti di valore: l'utente deve trovare ciò che si aspetta, e possibilmente qualcosa di più di quanto presente in altri siti;
· aggiornati, in maniera proporzionale alla tipologia di contenuti;
· con appropriati approfondimenti ed estensione: è opportuna la presenza di un soddisfacente numero di link (interni od ad altri siti) di approfondimento ed a temi correlati;
· attraenti: questo vincolo si rifà al criterio di soddisfazione nell'uso di uno strumento;
· informativi ma comprensibili: fornire informazioni nuove ma senza dare per scontato il contesto, rendendo possibile una spiegazione, o un approfondimento; questo rende fruibile il documento sia agli esperti, che possono trovare spunti di novità, sia al non esperto, che può recuperare le informazioni necessarie a farsi un quadro dell'argomento.
· stimolanti: soprattutto quando la finalità del sito è didattica, o formativa, è importante che i contenuti vengano presentati in maniera da stimolare l'utente a porsi un problema non troppo facile né troppo difficile da risolvere, in modo che siano commisurati alla sua preparazione.
Normansottolinea come un buon artefatto, soprattutto in ambito formativo, dovrebbe portare ad un'esperienza gratificante, rispettando le seguenti caratteristiche:
· essere interattivo e fornire notevoli informazioni di ritorno (feedback);
· avere obiettivi specifici e procedure stabilite;
· essere motivante;
· comunicare una continua sensazione di sfida (non così difficile da creare un senso di

impotenza e frustrazione, né così facile da annoiare);
· dare la sensazione di un coinvolgimento diretto;
· fornire strumenti appropriati al compito ed all'utente;
· evitare distrazioni e fattori di disturbo che interrompano il flusso esperenziale.

d) Identificare le risorse
La fruizione di una risorsa su Internet avviene in maniera molto libera dal contesto: è possibile, anzi probabile, che un utente approdi ad una pagina di un sito attraverso un link da un sito esterno. Questo significa che, quando raggiunge questa pagina, non ha a priori indizi per individuarne il contesto. Diviene pertanto importante che ogni documento presenti degli aspetti capaci di identificarlo agli occhi dell'utente. Alcuni di questi elementi appartengono al design dell'interfaccia (ad esempio un link all'home page e alla directory), altri al contenuto; sotto questo profilo i principi da seguire poco si discostano dalle regole base del giornalismo. Il documento deve rispondere alle seguenti domande:
· chi: presentare l'autore, citare (e linkare) le fonti del documento;
· cosa: definire chiaramente l'argomento, attraverso l'uso di titoli chiari ed esplicativi, delle parole chiave, di un riassunto, fornire link a documenti di introduzione e di approfondimento all'argomento, fornire delle cronologie o rendere disponibili degli archivi storici;
· quando, dove: per un sito giornalistico specificare tempi e luoghi di una notizia è essenziale sul web quanto lo è su altri mezzi; la datazione di una pagina web è addirittura più importante che su media tradizionali: mentre è implicito che sul giornale di oggi ci siano notizie di ieri, o comunque recenti, su di un sito è opportuno che rimangano in archivio anche le notizie passate. In questo caso diviene essenziale che la datazione sia esplicita, in modo che chi fruisce della risorsa anche dopo mesi la possa collocare temporalmente. Per quanto riguarda altri tipi di contenuto è comunque importante che l'utente possa riconoscere se un documento risulta aggiornato o meno. L'aggiornamento frequente di un sito costituisce uno dei fattori che più contribuiscono alla credibilità e alla qualità di un sito.
d) Definizione della struttura
Lo strumento ipertestuale del www pone poche restrizioni sul modello d'uso delle informazioni, che possono essere organizzate nella maniera più disparata. Tale libertà può però portare ad una struttura confusa, che disorienta l'utente.
f) Struttura gerarchica
Gli utenti, soprattutto se esperti, si aspettano una struttura gerarchica, ad albero, che partendo dalla home page ramifichi verso alcune sezioni e sotto-sezioni. Adottare questo tipo di organizzazione ha un duplice vantaggio. In primo luogo è piuttosto connaturata alla natura del sistema informatico sottostante: il disco rigido di un computer è organizzato in directory, ovvero è di per se strutturato ad albero; in secondo luogo una simile struttura è cognitivamente più facile da gestire, poiché l'informazione viene raggruppata in insiemi maggiormente fruibili. Una pagina contenente un centinaio di link non strutturati, ad esempio, costringe l'utente ad una ricerca di tipo seriale piuttosto scomoda. Attraverso una struttura ad albero la ricerca viene spezzata in due (o più) passaggi: nel primo passaggio l'utente identifica la categoria di interesse, passando nella pagina di riferimento. Il secondo compito consiste nel trovare la risorsa cercata in un elenco di dieci o venti elementi, molto più facile da leggere. Il problema più significativo di questa soluzione è che spesso l'utente può non conoscere o non condividere i criteri che portano alla classificazione. In questo caso può non immaginare in quale sotto-directory sia riposta la risorsa che a lui interessa. In secondo luogo la struttura ad albero implica, almeno concettualmente, l'idea di partizione: ci si aspetta che una risorsa contenuta in un ramo dell'albero non possa essere presente in un'altra sezione. Nella realtà questo non è però necessariamente vero in quanto alcuni insiemi concettuali possono essere parzialmente sovrapposti. Per rendere conto di ciò è necessario ricorrere a delle "giustificate violazioni", inserendo una risorsa in più rami della struttura. Una simile strategia viene comunemente adottata, ad esempio, in http://www.yahoo.com/. Yahoo costituisce il più famoso e prestigioso esempio di catalogo gerarchico dei siti internet; in yahoo non è raro trovare link ad una stessa risorsa in punti differenti dell'albero categoriale. Il limite della rappresentazione offerta da yahoo è che, nel caso di risorse presenti in più parti, l'utente non viene informato che la risorsa afferisce anche ad altre categorie, che magari meglio corrispondono alle sue specifiche esigenze.
g) Collegamenti laterali
Una struttura gerarchica prevede relazioni esclusivamente fra un nodo dell'albero, il genitore ed i figli. Spesso è proficuo aggiungere il collegamento a risorse collocate sullo stesso livello. Se si decide di spezzare un documento in più parti, è essenziale il link di ogni parte con le altre, e soprattutto alla sezione precedente e successiva. E' importante fornire dei collegamenti con temi o risorse correlate, in maniera da dare una rete semantica capace di offrire all'utente un flusso di navigazione che sia contemporaneamente strutturato e libero.
h) Modelli multipli di fruibilità
Una delle possibilità più interessanti del web è quella di rendere potenzialmente disponibili diversi modelli di fruizione. I motori di ricerca, ad esempio, offrono la possibilità di ordinare i risultati di una ricerca in base alla salienza stimata, in base alla data di pubblicazione, oppure raggruppati per sito di appartenenza. Quando le informazioni pubblicate sono ricavate da un database, è possibile catalogare e presentarle in base a criteri diversi. Immaginiamo, ad esempio, il database dei numeri telefonici di telefonia fissa in Italia. Gli elenchi cartacei sono organizzati per area geografica ed ordinati alfabeticamente; le pagine gialle forniscono le stesse informazioni (quantomeno per quanto riguarda gli utenti commerciali) ma con un'organizzazione diversa (per provincia e tipologia). L'ipotetico sito www.elencotelefonico.it dovrebbe fornire la possibilità di ritrovare un numero conoscendo l'area geografica (comune, provincia), il nome dell'azienda, o la tipologia, ed infine risalire ai dati anagrafici partendo dal numero (come succede con il 1412). Naturalmente un servizio simile già esiste (si veda ad esempio http://www.virgilio.it).
i) Motore di ricerca interno
Se viene reso disponibile, un motore di ricerca interno rende possibile il recupero di una risorsa senza bisogno di conoscerne o scoprirne la collocazione, saltando dunque tutti i passaggi intermedi. Naturalmente una volta che la risorsa è stata trovata è ancor più necessario fornire all'utente degli elementi che gli permettano di intuirne la collocazione e di contestualizzarla all'interno del sito.


l) Definizione dell’interfaccia

Il design orientato all'usabilità non si limita a focalizzarsi sull'interfaccia grafica, che rimane comunque uno dei capisaldi dell'ergonomia di un sito.

 

 

m) Design riconoscibile

Uno degli aspetti preminenti nel progettare un'interfaccia è quello di fare in modo che l'utente possa in ogni momento identificare il sito; l'utente può accedere ad una risorsa a partire da link esterni, e non essere a priori a conoscenza di dove è approdato. Ogni pagina dovrebbe dunque contenere alcuni riferimenti capaci di orientare l'utente nella fruizione e nella navigazione. Impronta estetica, look omogeneo, consistente. Deve dare l'impressione di unitarietà, di sistematicità. Il look omogeneo evita di dover imparare regole nuove.
adottare delle strategie standard che si sono imposte sul web. In questo caso una risorsa, un elemento è riconoscibile poiché è conforme a standard esterni, e dunque l'utente ne può intuire la funzione senza doverla imparare ex novo.
n) Design accessibile
Una pagina web è potenzialmente fruibile da un'utenza quanto mai eterogenea, sotto molteplici aspetti: differenze culturali, economiche, tecnologiche e fisiche. Non tener conto di tali differenze significa precludere la fruibilità della risorsa ad importanti fasce di potenziali visitatori. D'altro canto rendere una pagina universalmente accessibile può limitare le possibilità potenziali del mezzo.
Differenze linguistiche: pubblicare un documento in una sola lingua significa precluderne la fruibilità a chiunque non parli quella lingua; naturalmente non si può pretendere che un sito pubblichi dei documenti in numerose lingue diverse, ma è importante, anche se forse banale, ricordare che la lingua costituisce una barriera culturale molto forte.
Differenze culturali: pur adottando una lingua internazionale, come l'inglese, è possibile che se un sito viene visitato da utenti afferenti a diverse culture alcune cose vengano interpretate diversamente; anche all'interno di uno stesso gruppo linguistico il livello culturale può essere diverso: è importante garantire dei buoni standard di leggibilità e comprensibilità, possibilmente suggerendo degli approfondimenti per chi vuole entrare nel dettaglio e delle introduzioni all'argomento per chi ha difficoltà a farsi un quadro.
Differenze tecnologiche: non tutti gli utenti sono dotati degli stessi mezzi informatici: se da una parte qualcuno può contare su calcolatori potenti, software aggiornato e linee veloci, altri debbono accontentarsi di tecnologie meno efficienti: un design elegante ma sobrio riesce, solitamente, ad accontentare entrambi. Differenze fisiche: uno degli obbiettivi prioritari del w3.org è quello di rendere accessibile il web anche a persone con handicap fisici o sensoriali; per raggiungere tali scopi saranno necessari browser capaci, ad esempio, di tradurre in parlato il testo scritto; nel frattempo risulta indispensabile adottare degli stili grafici capaci di essere visti anche da persone con difficoltà visive.
o) Design navigabile

Abbiamo visto come sia importante progettare una struttura che renda capace l'utente di formarsi un modello mentale del sito; affinché tale struttura possa essere proficuamente utilizzata è necessario fornire all'utente gli strumenti per navigare nella struttura.Sarà necessario riprodurre in ogni pagina un link alla home page, il percorso della struttura (che va dalla radice attraverso tutti i nodi fino alla posizione corrente), il link alle risorse più importanti; se un lungo documento viene spezzato in più pagine web è necessario fornire il link alle altre pagine, od almeno alla pagina precedente e successiva, nonché al sommario.
p) Design prevedibile
Design prevedibile non significa banale; significa fare in modo che l'utente possa prevedere i risultati di un'azione. Inserire un link ad un documento di testo in formato word (.doc) può essere utile, a patto che l'utente venga informato che sta per aprire un documento word e non una pagina web. Nei principi generali d’usabilità si è posto l'accento sul concetto di visibilità, che è strettamente correlato a quello di prevedibilità: la visibilità di un artefatto è buona nel momento in cui l'utente può coglierne le potenzialità, scoprirne gli utilizzi, prevederne gli effetti.
Quando un utente fa click su di un link si aspetta di passare ad un'altra pagina web. Le possibilità tecnologiche degli ipertesti, al contrario, rendono possibili molti altri comportamenti. E' possibile scaricare un documento, un programma, un file musicale. Attraverso un click si può aggiungere un prodotto ad un carrello della spesa, o rispondere ad un sondaggio; tutte possibilità perfettamente legittime, anche sotto il profilo dell'usabilità, a patto che l'utente sia informato su ciò a cui andrà incontro facendo quel click. Design prevedibile significa anche interfaccia consistente; in questo caso prevedibile e riconoscibile sono quasi sinonimi.

 

3. IL WEB ACCESSIBILE

Il problema dell’accessibilità ai siti web

Gli utenti con bisogni speciali rappresentano una popolazione molto ampia; secondo le stime dell’Organizzazione Mondiale della Sanità, si valuta che una popolazione mondiale pari a dodici volte quella italiana sia affetta da disabilità motorie, cognitive e sensoriali. Per queste persone l’uso della tecnologia dell’informazione legata alla rete è interdetta, a meno che il sito non sia dotato di strumenti di adattamento per i portatori di handicap. La rete non è un ambiente amichevole per gli utenti disabili, ma non tanto perché la tecnologia non sia in grado di rispondere a specifici bisogni, ma piuttosto perché il problema non è ancora stato preso in considerazione dalla maggioranza dei progettisti e dalle aziende che realizzano i siti. E’ opportuno citare una delle più interessanti ricerche condotte in Italia sul problema dell’accessibilità condotta da Laura Burzagli e Paolo Graziani del CNR IROE di Firenze dal titolo "Accessibilità dei siti web" e riportiamo una parte dell’introduzione: "Con questo lavoro gli autori intendono rivolgersi a tutti coloro che, pur avendo conoscenze nel campo informatico e telematico, conoscono solo parzialmente o ignorano del tutto le potenzialità di questi mezzi per l'integrazione delle persone con disabilità, come pure il pericolo delle grandi barriere che possono inavvertitamente essere introdotte e che ostacolano di fatto tale integrazione. Molte organizzazioni internazionali che operano in questo settore stanno da tempo portando avanti un approfondito lavoro teso ad abbattere tali barriere e ad aumentare le potenzialità d'accesso di ogni categoria di utenti, compresi quelli "marginali". Questo lavoro ha già dato numerosi risultati positivi, purtroppo spesso sconosciuti alla maggior parte degli utenti e degli operatori. A noi è parso fondamentale che questi risultati non rimanessero dominio di pochi, ma fossero diffusi fra tutti coloro che operano in questo settore, qualunque sia il loro ruolo. Siamo infatti convinti che anche da studi tecnicamente molto complessi si possono sempre ricavare delle regole comprensibili ed applicabili da chiunque. D'altronde, è proprio dalla massiccia e sistematica applicazione delle regole messe a punto da questi lavori di ricerca che dipende il buon esito di un processo di generale miglioramento dell'accessibilità delle sorgenti di informazione e dei mezzi tecnologici".

Le regole fondamentali per realizzare pagine accessibili

 

"Creare documenti accessibili non significa rinunciare a qualcosa, ma al contrario, arricchire il documento stesso con componenti che lo completano e lo rendono più adatto alla consultazione in qualunque circostanza. Ad esempio, contrariamente a quanto si ritiene con un diffuso luogo comune, un documento accessibile ai ciechi non deve essere necessariamente un documento puramente testuale. Può contenere immagini, grafici, può essere strutturato in modo razionale; basta che le sue componenti orientate alla vista siano accompagnate da informazioni alternative che ne descrivano la funzione e che non siano quindi di impedimento all'orientamento nel documento stesso, come meglio dettagliato nei capitoli successivi. Un analogo concetto vale per la struttura del testo per la quale si può anzi aggiungere e ribadire che, se ben progettata per la navigazione da parte di una persona non vedente, ne trarranno vantaggio tutti gli altri utenti".

 

Principi di progettazione universale

I due punti cardine dell'accessibilità sono i seguenti:

La prima delle due linee guida indica la proprietà insita in una pagina di potersi adeguare alle diverse modalità di rilettura, che possono essere impostate dall'utente o vincolate dalla tecnologia utilizzata. Questo vuol dire, per fare un esempio, che un computer privo di capacità audio, non potrà trasmettere informazione di questo tipo. Per questo la pagina che contiene informazioni audio dovrà essere fornita di informazione ridondante che presenti il contenuto audio in altro formato. In altre parole questa linea guida è l'esatto contrario della scritta che troviamo di frequente nei siti "Best viewed with xxx browser". La pagina dovrebbe essere "Best viewed with ¼ every browser". Per specificare meglio possiamo dire che i documenti che si comportano in questo modo sono quelli capaci di essere percepiti interamente sia in modo visivo che attraverso mezzi sonori. E' bene sottolineare che questo non significa assolutamente che sia necessario duplicare il contenuto del documento con la creazione di un'intera versione sonora del sito. Infatti i dispositivi di screen reader sono già in grado di tradurre in forma audio tutta l'informazione presente sulla pagina in formato testuale. Quindi per avere una versione sonora è sufficiente tradurre solo le porzioni d'informazione non trasformabili in audio con i mezzi di tecnologia adattiva. Un altro aspetto fondamentale dei documenti così creati è la loro capacità di essere adoperati su tipi diversi di hardware, cioè con computer senza mouse, con schermi con bassa risoluzione o in bianco e nero, con uscita solo in voce o in testo, oppure senza schermo.

La seconda linea guida invita a rendere massima la possibilità di utilizzo fornendo informazioni sul contesto e l'orientamento e semplificando la presentazione delle informazioni. Fornire informazioni sul contesto e sulla presentazione significa aggiungere informazioni per aiutare gli utenti a comprendere l'aspetto generale di una pagina, una tabella, un frame o un form. Spesso gli utenti sono limitati a vedere solo una porzione della pagina, sia perché stanno accedendo alla pagina stessa parola per parola (con sintetizzatore vocale o display braille) o una sezione alla volta (display piccoli o usati con ingranditori).

 

 

Per il test delle pagine si può seguire una serie di procedimenti.

1) Usare un tool di validazione automatico. Anche se i criteri per l'accessibilità non possono essere applicati in modo meccanico, ma richiedono una conoscenza dell'argomento, tuttavia esistono degli strumenti automatici che permettono di effettuare una prima valutazione dell'accessibilità del documento creato e della compatibilità con particolari browser. Sono i cosiddetti tool di validazione. Tra i principali possiamo citare:

Bobby

Questo programma effettua un controllo sia sulla conformità del documento con una determinata versione del linguaggio sia con le principali regole dell'accessibilità. Il programma Bobby può essere considerato solo un primo passo per la valutazione dell'accessibilità del documento, non una garanzia completa. La versione on-line, previo riempimento di un form con l'indirizzo della pagina, manda indietro una copia della pagina, rilevando i punti che possono creare problemi d'accessibilità. C'è anche la possibilità di scaricare l'applicazione e verificare le pagine localmente sul proprio computer. Bobby è un servizio gratuito fornito da CAST (Centre for Applied Special Technology) che si può trovare all'indirizzo http://www.cast.org/bobby. Lo stesso sito fornisce anche una piccola immagine da caricare sul proprio sito a garanzia dell'accessibilità verificata col loro programma.

 W3C HTML Validation Service

Un altro servizio di validazione è il cosiddetto W3C HTML Validation Service, all'indirizzo http://validator.w3.org/. Questo servizio di validazione è fornito direttamente dal consorzio W3C. Permette di verificare la conformità delle pagine rispetto alle norme dell' HTML 4.0.

 

 

 

 

Una proposta per la regolamentazione del diritto di accesso alle risorse informatiche

Prof. Donato Taddei

From: Do.Taddei@agora.stm.it
Newsgroups: it.comp.accessibilita.ciechi
Subject: semilavorato aperto ai contributi
Date: 2 Jul 2000 12:25:25 GMT

Proposta di articolato per la regolamentazione del diritto di accesso ai servizi e alle risorse informatiche pubbliche.

Art. 1. Diritto di accesso

Lo stato garantisce a tutti i cittadini, applicando il principio Costituzionale di uguaglianza, il diritto di accesso alle risorse informatiche e ai servizi telematici erogati dalla pubblica amministrazione, in considerazione della gran rilevanza sociale dell'impatto delle tecnologie basate sull'uso di reti di elaboratori, in particolare il fenomeno Internet. La rilevanza sociale ed economica dei sistemi informatici assorbe, da tempo, quote significative del P.I.L. e determina radicali cambiamenti nel modo di lavorare, di istruirsi, di fruire di nuovi e diversi servizi. L'accesso e la fruizione delle informazioni digitali, specie per via telematica sono sempre piu' collegati a diritti costituzionali fondamentali. La pubblica amministrazione ex art. l ... deve provvedere a rimuovere le barriere tecnologiche che si stanno producendo creando nuovi analfabetismi e nuove disabilita', precludendo a vaste categorie di cittadini l'esercizio di diritti fondamentali.

Art. 2. PRINCIPI DI PROGETTAZIONE E GESTIONE DEI SITI E DEI SERVIZI

Le Pubbliche Amministrazioni, gli enti pubblici, economici e non, e tutti i soggetti di diritto pubblico sono tenuti, nell'allestimento e nella gestione di siti, banche dati e servizi telematici, a porre particolare attenzione per assicurare il diritto di cui al precedente Art. 1, a tutte le categorie di cittadini, specie se svantaggiati o disabili.

 

In particolare:

- anziani, spesso affetti da riduzioni e limitazioni sensoriali, motorie, cognitive;
- cittadini sottoscolarizzati, non scolarizzati e privi di conoscenze informatiche;
- i bambini svantaggiati e disabili in obbligo scolare;
- cittadini affetti da disabilità sensoriali (non vedenti, non udenti, ipovedenti, ipoudenti,
- affetti da disabilità motorie anche gravi,
- cittadini affetti da problemi psichici con disturbi e ritardi nell'apprendimento, nella comunicazione, nella vita di relazione.

Pertanto la progettazione e lo sviluppo dei siti e dei sistemi deve attenersi ai seguenti principi generali:

A) - PRINCIPIO DI INDIPENDENZA DAL DISPOSITIVO

I sistemi informatici, i servizi telematici, i supporti contenenti informazioni digitalizzate d’interesse sociale devono essere accessibili a tutti i cittadini, tenendo conto che essi possono possedere macchine diverse, per dimensioni, capacità, velocità, architettura, sistema operativo, interfaccia utente, dispositivi di interazione col sistema e con l'informazione e la sua fruizione: tipicamente periferiche alternative.

B) - PRINCIPIO DI PRESENTAZIONE EQUIVALENTE

Le informazioni e le procedure d’accesso ai sistemi e alle reti di cui al capoverso precedente, devono sempre distinguere l'informazione principale dalla sua presentazione standard.

L'informazione principale deve essere disponibile anche secondo modalità alternative di presentazione: tipicamente deve essere sempre possibile l'accesso alle informazioni sia con interfacce grafiche e basate su dispositivi di puntamento, sia attraverso interfacce testuali,con comandi a tastiera, con terminali ridotti o ingranditi, con terminali gsm e computers palmari e da automobile, lettori di schermi collegati a dispositivi speciali (esempio.barre braille, dispositivi di sintesi vocale, emulatori di mouse, cannucce, dispositivi di telecomando, ecc.).

In considerazione del fatto che l'informazione principale deve essere veicolabile attraverso differenti canali sensoriali, le immagini e i suoni rilevanti ai fini dell'informazione e delle procedure d’accesso, devono essere sempre associati a riferimenti testuali e descrittivi, che ne descrivano o sostituiscano la funzione. Ove questo risulti utile il contenuto testuale può essere arricchito, specificato o chiarito con immagini e suoni, animazioni, filmati, e quanto altro possa facilitare la comunicazione, la fruizione delle informazioni e l'interazione col sistema, utilizzando a pieno le possibilità multimediali rese disponibili dalla tecnologia attuale.

C) - PRINCIPIO DI FLESSIBILITA' E SEMPLICITA' D'USO

Le procedure di accesso ai sistemi informatici, alle reti di elaboratori, devono tener conto che i cittadini possono avere tempi diversi di interazione col sistema a causa della macchina posseduta, dei dispositivi utilizzati per l'interazione, dei carichi sulle infrastrutture di trasporto, o per effetto di disabilita': sotto tale profilo si devono assicurare procedure legate il meno possibile alla temporizzazione di eventi, evitare testi in movimento, azioni legate a precisi lassi di tempo, e aver cura di sincronizzare le modalità alternative di presentazione: filmati, didascalie, linguaggi del corpo ecc. La facilità d’uso deve essere assicurata in tutte le presentazioni dell'informazione, non solo in quella della procedura standard.

Art. 3. L'AUTORITA' GARANTE

L'autorità Informatica per la Pubblica Amministrazione provvede a sorvegliare l'applicazione concreta dei principi esposti nel presente atto:
A)- provvedendo a recepire nell'ordinamento italiano, sotto forma di proposte di regolamenti e di particolari standards dettati da organismi ed enti internazionali e comunitari: vedi allegato 1 a questa legge: "recepimento nell'ordinamento italiano della raccomandazione 05/05/99 del World Wide Web Consortium";
B) - svolgendo una funzione di impulso e di raccordo tesa a favorire un approccio unitario al problema, specie nell'ambito della costituenda rete informatica unitaria per la pubblica amministrazione;
C) - istituendo o favorendo servizi anche automatici per il controllo di conformità ai principi esposti nella presente legge, in tutte le fasi dello sviluppo di siti e procedure: coordinando lo sviluppo di procedure alternative e di tecnologie assistive da porre gratuitamente al servizio delle categorie di cui al precedente articolo 2;
D) - aprendo un canale di comunicazione diretto con gli utenti, dando loro la possibilità di segnalare difficoltà e malfunzionamenti o non aderenza a questi principi di progettazione universale.
Art. 4: portali e pagine web accessibili vengono accolte nell'ordinamento italiano le linee guida per l'accessibilità dei siti web contenute nella raccomandazione del 5 maggio 1999 del World Wide Web Consortium (W3C), CHE POSSONO COSI' SINTETIZZARSI:
- Fornire alternative equivalenti al contenuto audio e visivo.
- Non fare affidamento sul solo colore.
- Usare marcatori e fogli di stile e farlo in modo appropriato.
- Chiarire l'uso di linguaggi naturali.
- Creare tabelle che si trasformino in maniera elegante.
- Assicurarsi che le pagine che danno spazio a nuove tecnologie si trasformino in maniera elegante.
- Assicurarsi che l'utente possa tenere sotto controllo i cambiamenti di contenuto nel corso del tempo.
- Assicurare l'accessibilità diretta delle interfacce utente incorporate.
- Progettare per garantire l'indipendenza da dispositivo.
- Usare soluzioni provvisorie.
- Usare le tecnologie e le raccomandazioni del W3C.
- Fornire informazione per la contestualizzazione e l'orientamento.
- Fornire chiari meccanismi di navigazione.
- Assicurarsi che i documenti siano chiari e semplici.


l'aUTORITA' iNFORMATICA PROVVEDE A UNA REGOLAMENTAZIONE PIu’ DETTAGLIATA SU ALCUNE PROBLEMATICHE CONNESSE AD ELEMENTI CRITICI AI FINI DELLA ACCESSIBILITA': PROBLEMI DI CARATTERE GENERALE, Immagini SENSIBILI e mappe, Tabelle, CORNICI E RIQUADRI, MODULI (FORMS),OGGETTI PROGRAMMATI E ANIMATI (APPLET E SCRIPT), PRESENTAZIONI MULTIMEDIALI.

Audizione aipa 7 luglio 2000

accessibilita’ e tecnologie informatiche nella P. A.

Si riporta di seguito il testo relativo all’Audizione del 7 Luglio 2000 pubblicato sul sito dell’AIPA.

" Premessa

Il 29 maggio è giunta all’Autorità una richiesta di audizione per l’adozione integrale da parte dell’Autorità stessa delle raccomandazioni del World Wide Web Consortium del 5 maggio 1999 riguardanti l’accessibilità dei siti web ai portatori di handicap (http://www.aib.it/aib/cwai/WAI-trad.htm).

La petizione era firmata dal prof. Giuliano Artico (Università di Padova), dal sig. John Fischetti (consigliere dell’ENIL, European Network on Independent Living, e della FAIP, Federazione delle Associazioni Italiane Para-tetraplegici), dal prof. Flavio Fogarolo (responsabile del servizio "Nuove tecnologie per l’integrazione" del Provveditorato agli Studi di Vicenza), dal prof. Paolo Graziani (CNR, Istituto di Ricerca sulle Onde Elettromagnetiche) e dal sig. Donato Taddei (INPS).

Allo stesso tempo, l’ASPHI (Associazione per lo Sviluppo di Progetti Informatici per gli Handicappati) aveva fatto pervenire al prof. Carlo Batini, incaricato di curare l’audizione, articoli e documentazione su alcuni dei propri progetti il cui tema comune è il superamento delle barriere informatiche e l’uso delle tecnologie informatiche per creare nuovi processi che favoriscano i disabili.

Temi dell’audizione

L’audizione si è svolta presso l’AIPA il 7 luglio 2000. I tre temi iniziali della discussione, legati alle iniziative già in corso da parte dell’Autorità, sono stati:

L’accessibilità dei siti web della P.A. L’Autorità ha commissionato all’Università Roma 3 un’indagine sui siti web della P.A. che ha finora prodotto una prima versione della metodologia di analisi e una prima rilevazione dei siti web delle amministrazioni. Sebbene la metodologia preveda già la misurazione di molte caratteristiche di accessibilità dei siti secondo le raccomandazioni del W3C, lo studio finale non contiene un’analisi approfondita relativamente a questo specifico tema.

I disabili e il regolamento per il Telelavoro. In attuazione dell’art. 6 del DPR 70/1999 ("Regolamento recante disciplina del telelavoro nelle pubbliche amministrazioni"), l’Autorità sta procedendo alla costituzione di una commissione che contribuirà alla redazione di un regolamento tecnico.

La formazione rivolta ai disabili (dipendenti della P.A. e non) e agli specialisti IT. Il piano di azione per l’e-government, recentemente approvato dal consiglio dei ministri, prevede al punto 13 due azioni di formazione con un costo previsto di 275 miliardi. La prima è orientata ai dipendenti pubblici, come utilizzatori delle tecnologie informatiche e prevede l’erogazione di 30 ore di corso a 400.000 dipendenti, mentre la seconda si propone di accrescere le conoscenze specialistiche di chi gestisce le infrastrutture informatiche delle amministrazioni.

Nel seguito è stata affrontata la problematica più generale della rimozione delle barriere informatiche. Con questo termine si indicano le difficoltà che i disabili incontrano nell’usare un sistema informatico, che discendono da:

- carenze nella progettazione del software, e dei contenuti dei siti web, che non tengono conto dei principi della progettazione universale e dell’usabilità, peraltro ormai approfonditamente studiati e oggetto di raccomandazioni e standard a livello internazionale;

- indisponibilità dei dispositivi specificamente realizzati per favorire l’uso dei computer da parte dei disabili (ad esempio le tastiere e i mouse utilizzati in alcune disabilità motorie, lo screen reader, la barra Braille o i sintetizzatori vocali usati dai non vedenti).

Il primo problema, pur non riguardando soltanto i disabili e la cui soluzione non richiede spesso alcun investimento aggiuntivo, ha spesso le conseguenze più negative sull’accessibilità. A questo proposito è stato richiesto l’intervento dell'AIPA quale organismo preposto ad intervenire nel campo delle barriere informatiche nella P.A. per quanto riguarda sia i problemi del personale disabile, che deve utilizzare i sistemi e le procedure informatiche nell'ambito del proprio lavoro, sia dei cittadini con disabilità, che devono godere dei diritti di accesso e informazione. È stato in particolare sottolineato il ruolo che l'AIPA deve svolgere circa la regolamentazione tecnica sui sistemi informatici della P.A. e tutta una serie di competenze ulteriori in tema di formazione del personale informatico, di pianificazione e verifica della informatizzazione. Si è sottolineata la necessità di orientare la formazione anche verso gli specialisti informatici in modo che i programmi siano sin dall'origine orientati verso l'accessibilità totale. Si è notata la quasi totale mancanza dei requisiti di accessibilità degli attuali prodotti multimediali, compresi quelli utilizzati nelle scuole e quelli prodotti dalle amministrazioni pubbliche. È stata ricordata l'intensa attività svolta dall'IROE del CNR di Firenze in merito all'accessibilità dell'informazione in formato elettronico (http://etabeta.iroe.fi.cnr.it/accesso/accesso.htm), anche per il Forum per la Società dell'Informazione (http://www.palazzochigi.it/fsi/ita/contributi/gruppo3/cnr_iroe.html)

e per conto della Presidenza del Consiglio (http://www.palazzochigi.it/approfondimenti/edream/index1.htm).

Il campo primario di regolamentazione delle sorgenti di informazione dovrebbe essere proprio la pubblica amministrazione, in ottemperanza anche alle direttive europee del piano e-Europe. A tale proposito, per quanto riguarda i siti Web, le raccomandazioni del W3C sono ormai considerate documenti di riferimento a livello internazionale, mentre per l'accessibilità del software esiste un’abbondanza di ricerche e di linee guida che possono orientare lo sviluppo di prodotti accessibili. È stato anche notato che il piano di azione italiano per l’e-government sottolinea la necessità di intervento nel settore delle interfacce tecnologiche per disabili, e rimarca che gli sviluppi delle tecnologie digitali offrono ai disabili ampie opportunità di superare le barriere socioeconomiche, geografiche, culturali e temporali. Il piano italiano accetta in pieno il progetto e-Europe, tra le cui priorità c'è la e-partecipation, che mira alla distruzione delle barriere elettroniche che ostacolano l'accesso alle nuove tecnologie dei cittadini disabili

Costituzione del gruppo di lavoro

Il 13 luglio 2000 l’Autorità ha deciso di costituire un gruppo di lavoro su "Accessibilità e tecnologie informatiche nella pubblica amministrazione", coordinato dal prof. Carlo Batini, dedicato alla raccolta delle esperienze e dei contributi provenienti da soggetti impegnati da tempo su questi temi, e di istituire un progetto intersettoriale con l'obiettivo di seguire costantemente tutta la problematica secondo le seguenti linee d’azione: l’adeguamento del sito dell’Autorità attraverso la prevista riorganizzazione, che deve essere l'occasione per giungere ad una versione del sito completamente accessibili ai disabili; l’inserimento, nei programmi di formazione per specialisti condotti dall'Autorità, di contenuti mirati all'accessibilità per i cittadini disabili e per i dipendenti pubblici disabili; il recepimento, da parte del gruppo di lavoro attualmente all'opera per la definizione delle regole tecniche del Telelavoro, della componente "accessibilità al Telelavoro" dei dipendenti pubblici disabili; la valutazione dell'adeguatezza di studi di fattibilità, progetti, realizzazioni, verifiche e monitoraggi di sistemi informatici della Pubblica Amministrazione anche in termini di accessibilità; l’inserimento nella relazione annuale del 2001 sullo stato di informatizzazione della Pubblica Amministrazione di un capitolo riguardante l'accessibilità dei sistemi, frutto di una specifica indagine da affiancare a quella sui siti della Pubblica Amministrazione attualmente affidata all'Università di Roma Tre; l’associazione dell’AIPA al W3C (World Wide Web Consortium); il contributo all’elaborazione normativa sull’accessibilità, attualmente in corso da parte del Parlamento. Per attuare le linee d'azione indicate, si ritiene opportuno costituire un Gruppo di lavoro che raccolga le esperienze e i contributi provenienti da soggetti impegnati da tempo su questi temi, al fine di individuare le strade più percorribili atte a migliorare (e in alcuni casi creare) l'accessibilità. Il gruppo di lavoro potrà anche proporre contributi, per quanto di propria competenza, all’elaborazione della normativa sull’accessibilità attualmente in corso presso il Parlamento. Si cita in particolare il disegno di legge "Misure contro le discriminazioni e per la promozione di pari opportunità", presentato alla Camera il 23 novembre 1999 dal Presidente del Consiglio dei Ministri". (http://www.camera.it/_dati/leg13/lavori/stampati/sk7000/frontesp/6582.htm).

Il Piano 2000

promosso dalla Presidenza del Consiglio dei Ministri

Si riporta di seguito una parte, quella relativa all’accessibilità, del documento emesso dal CCET (Centro Coordinamento degli Enti Territoriali) " Piano d’azione dell’Italia per lo sviluppo della società dell’informazione" promosso dalla Presidenza del Consiglio dei Ministri.

"Ci sono molti motivi per porsi il problema dell'accessibilità delle informazioni e dei servizi di rete della Pubblica Amministrazione, a cominciare dai servizi informativi già disponibili, per quanto ancora relativamente limitati.In questa sede, per adesso, intendiamo limitare le questioni dell'accessibilità all'insieme dei problemi da affrontare per rendere l'informazione pubblica offerta fruibile alla parte più grande possibile dei potenziali utenti. Sull'argomento è avviata un'importante iniziativa del World Web Wide Consortium, denominata Web Accessibility Initiative, da cui queste pagine prendono spunto. Segnaliamo inoltre che in Italia c'e' in corso una sperimentazione concreta da parte del CSA Forte Prenestino per discutere (e documentare) proposte sull'accessibilità delle risorse Web. Per questo il CSA ha aperto un apposito sito ed una lista di discussione, che segnaliamo qui perché riteniamo che il problema dell'accessibilità delle informazioni (da tutti i punti di vista) sia il cuore del rapporto fra i cittadini e lo Stato, nelle sue varie forme.
L'uso dei Web si sta diffondendo rapidamente a numerosi settori della società civile ma ci sono ancora molte barriere per vari tipi di disabilità, che affliggono un numero di persone molto alto, mentre alcuni servizi devono essere accessibili soprattutto ai meno fortunati, pena il rischio di aumentare la separazione, l'isolamento e l'impoverimento, anche culturale.La tecnologia della rete e dei Web è quella sviluppatasi più rapidamente nella storia. Tra le fonti informative "tradizionali" (scuole, biblioteche, materiali a stampa, ecc.) alcune sono accessibili a tutti e altre invece no. Il Web sta diventando una risorsa chiave, anche se qualche volta inaccessibile, per: notizie, informazioni, commercio, divertimento, formazione scolastica, formazione a distanza, ricerca di lavoro, interazione professionale, partecipazione civile alla "cosa pubblica".

Un Web accessibile significa fornire una capacità di accesso senza precedenti a quelli che finora hanno subito molte limitazioni. Un Web può presentare barriere a diversi tipi di problemi: di vista (grafici o immagini video senza etichette descrittive, tabelle illustrate sommariamente, scadente compatibilità con sistemi vocali di lettura); di udito (difficoltà sui sistemi audio o proliferazione di testi senza supporto video); di movimento (ruolo eccessivo della tastiera o menù di comandi a tendina troppo sensibili); di capacità cognitive e di competenze (strutture di navigazione poco solide, presentazioni e linguaggi troppo complessi, mancanza di materiali illustrativi non testuali). In realtà questo vale anche se non ci si occupa del problema della diffusione via web ma semplicemente della possibilità che un atto pubblico sia comprensibile ai più. Una buona parte della popolazione soffre in varia misura di disabilità (in senso ampio), soprattutto se si pensa che l'età media si sta alzando e che l'avanzare dell'età contribuisce ad affievolire l'insieme delle capacità di vista, udito, destrezza e elasticità di memoria. Poche organizzazioni possono ignorare deliberatamente questa parte di popolazione per rivolgersi solo al proprio target selezionato. Sicuramente non può farlo la Pubblica Amministrazione. Sempre in tema di accessibilità proponiamo una nostra breve riflessione sui siti delle Regioni italiane, analizzando i quali si vede ben chiaro che il problema è ignorato praticamente da tutti. Come contributo alla diffusione della tematica e per solleticare l'attenzione dei webmaster e dei loro dirigenti, forniamo qui un nostro contributo originale tratto dai lavori del webmaster di questo sito.

Affrontare i problemi dell'accessibilità ha conseguenze dirette sulla progettazione "universale" (cioè per qualunque utente):

L'accessibilità dei siti pubblici è molto spesso un requisito stringente derivato direttamente da scelte di politica anti-discriminatoria. In molti paesi esistono standard o prese di posizione governative molto precise sia per i siti di Stato che per quelli degli Enti territoriali. In Italia c'è ancora qualcosa da fare. Il problema dell'accessibilità, quindi, deve essere affrontato, approfondendone ed estendendone il significato, sia in termini tecnici (strumenti per ridurre le barriere"architettoniche") sia, contemporaneamente, in termini di significatività e fruibilità dei contenuti informativi proposti dai siti.

Quindi:

Varrebbe la pena di sperimentare un sistema di produzione di testi di delibere (o di normative) che guidi l'utente/autore nella costruzione sia del testo in sé che della sua descrizione e che garantisca, con opportuni schemi predefiniti (XML et similia), la capacità dei web di interpretare ed offrire ai motori di ricerca informazioni (pointers) effettivamente utili. Si conferma però anche l'importanza di progettare motori di ricerca adeguati alla complessità del problema (per esempio Normeinrete, che è in corso di sviluppo) soprattutto per le capacità e le garanzie di ranking dei documenti".

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Parte Terza

 

1. PROGETTO TRIO

 

 

L’obiettivo principale del secondo stage era quello di eseguire una comparazione tra gli indicatori di qualità rilevati e gli elaborati elettronici prodotti, sia per la formazione a distanza che per il sito web, all’interno del Progetto Trio.

Era stato preparato un questionario da sottoporre, in entrata, agli esperti dei vari settori, che ci avrebbe fornito indicazioni su come procedere nella definizione della metodologia più adeguata per effettuare la nostra analisi. Ma non abbiamo proceduto alla compilazione del questionario perché su nessun prodotto, sia on line che off line, era mai stato eseguito un controllo di qualità e nessun elaborato elettronico risultava accessibile ai disabili, nemmeno il modulo dedicato alla sicurezza nei luoghi di lavoro.

Abbiamo pertanto visionato i materiali per la formazione e precisamente i seguenti CD ROM:

Gli elaborati suddetti hanno stili molto diversi tra loro: il primo è ricco di contenuti, curato nelle spiegazioni pratiche, dettagliato nello svelare i segreti del mestiere di sarto; peccato però che cliccando sull’indice generale alla voce "mappa" appaia una schermata nera con un quadrato centrale suddiviso in tanti quadratini colorati e che non ci sia nessun pulsante di aiuto che permetta di capire cosa significano i quattro colori utilizzati. Il secondo prodotto è tecnico, un po’ freddo e scritto con caratteri così piccoli che una persona con problemi di vista rischia, usando un monitor standard, di non poter leggere niente. Il terzo elaborato, dalla sceneggiatura pensata come un videogioco, rischia di far diminuire l’interesse per i contenuti a favore del divertimento attivo e partecipato in cui l’utente si trova coinvolto. Insomma ci sarebbe da aprire un’interessante ricerca su questo argomento: gli stili pedagogici degli elaborati elettronici, metodologia attiva e partecipata, tecnica e nozionistica o metodologia basata sullo stimolo-risposta come vuole il comportamentismo?

Il fatto è che nessuno di questi prodotti è stato sperimentato prima di essere distribuito al pubblico e questo dovrebbe far pensare, per il futuro, a interventi mirati di validazione, a studi più approfonditi sulle metodologie digitali di trasmissione del sapere.

I rischi che si corrono mettendo sul mercato un prodotto non testato possono variare secondo il tipo di oggetto; se una casa di produzione automobilistica non provasse gli autoveicoli durante le varie fasi del ciclo di produzione è facile immaginare cosa potrebbe accadere ed è per questo che i test sulla sicurezza di un’auto sono tra i più controllati e ripetuti; a nessuno verrebbe in mente di lanciare sul mercato un modello mai provato. Ovviamente le macchine di cui ci occupiamo noi sono molto meno pericolose, e ancor meno lo sono gli strumenti, ma questo non significa che non debbano rispondere a criteri "universali" che regolano del resto l’accesso alle informazioni, al sapere, agli strumenti di formazione nel mondo della carta stampata, della produzione video, di un programma radiofonico, di una lezione in aula.

Gli utenti che utilizzano il computer da casa o dal luogo di lavoro sono in aumento e, come abbiamo già osservato, le occasioni di formazione professionale offerte dalla rete possono essere un valido aiuto per le aziende impegnate nella riqualificazione dei lavoratori, per aggiornare i docenti, per formare i giovani a nuove professioni.

Produrre o elaborare strumenti di qualità e ipotizzare verifiche per la valutazione degli strumenti è un obiettivo da perseguire.

La valutazione all’interno dei moduli FAD, ad esempio, è sentita particolarmente in relazione al conseguimento degli obiettivi assegnati ad un’azione formativa, ma se consideriamo che, già per le condizioni di relativo isolamento in cui avvengono i processi formativi a distanza, il rischio di abbandono può aumentare, ancor più attenzione deve essere posta alla cancellazione di ostacoli "strumentali" che derivano da software mal progettati.

Per il momento le metodologie, i pacchetti didattici e le tecnologie di rete utilizzati sono assai spesso derivate da applicazioni straniere, soprattutto statunitensi e l’utilizzo di queste metodologie e strumenti risulta utile essendo stati testati in situazioni avanzate dove hanno dovuto rispondere agli standard qualitativi di un mercato maturo. Ma la loro assunzione non implica però solo problematiche di localizzazione, ma impone una riflessione autonoma sulle relazioni possibili tra stili di apprendimento e sviluppo di pacchetti didattici.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

La compilazione del seguente questionario ci consentirà di raccogliere informazioni riguardo ai criteri di usabilità da voi utilizzati per la costruzione dei siti web.

Indicare la specializzazione

(progettista, grafico, esperto di usabilità, responsabile della formazione, ecc…)

…………………………………………………………………………………………

1. Conosce i principi fondamentali dell’usabilità?

° Sì

° No

2. Esistono vari metodi per la valutazione di usabilità di un sito web.

Saprebbe indicarne qualcuno?

° Sì. Quali?…………………………………………………………………………

° No.

3. Quando, secondo lei, è consigliabile effettuare i controlli d’usabilità?

° Quando è pronta la struttura ipertestuale sul computer.

° Non appena sono disponibili le bozze cartacee dell’interfaccia.

° Prima di avviare, con gli utenti, il prodotto ipertestuale.

° Se l’utente comunica di non riuscire a girare all’interno del sito.

4. Nel corso della produzione di un sito è consigliabile effettuare:

° un solo controllo con 15 utenti-prova;

° da tre a cinque controlli con 20 utenti-prova (ogni volta);

° più di cinque controlli con 5 utenti-prova (ogni volta);

° tre controlli con 5 utenti-prova;

5. Dovendo fare un controllo di qualità sulla bozza dell’interfaccia:

° coinvolge gli utenti finali del prodotto;

° chiede la consulenza a vari grafici;

° chiede la consulenza a diversi esperti;

° altro (specificare) ………………………………..

5. Il primo controllo di navigazione dovrebbe essere effettuato da:

° chi non ha mai navigato

° un esperto

° più esperti

° chi ha progettato il sito

6. La valutazione della qualità dei siti dovrebbe essere effettuata da:

° esperti di vari settori

° tecnici

° utenti-prova

° responsabili della formazione

7. Dovendo fare una prova di valutazione con degli esperti, l’autore dovrebbe fornire informazioni su:

° nessuna cosa e lasciare libera la navigazione

° chi saranno gli utenti che utilizzeranno il sito

° qual è l’obiettivo da raggiungere e quali azioni dovranno svolgere gli utenti

° guidare gli esperti spiegando via via le azioni da compiere e gli obiettivi da raggiungere

8. E’ stato effettuato un test di usabilità dei vostri siti?

° No

° Sì. Mediante test

° Sì Mediante questionari SUMI, WAMMI, QUIS

° Sì. Altro (specificare)……………………………………………………………………….

9. Se sono stati fatti dei test di controllo sulla qualità dei vostri siti, quali sono state le modifiche apportate all’interfaccia più rilevanti?

……………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………….

10. Sono state effettuati controlli di navigazione con degli utenti-prova?

° Sì

° No

11. Sono state valutate le effettive competenze degli utenti rispetto al web?

° Sì

° No

Segnate le voci che ritenete importanti per la costruzione di un sito web

° Realizzare un dialogo semplice e naturale con l’utente.

° Semplificare la struttura dei compiti.

° Presentare soluzioni originali.

° Agevolare il riconoscimento piuttosto che il ricordo.

° Fornire feedback per rendere visibile lo stato del sistema.

° Organizzare le pagine in modo sempre diverso.

° Prevenire gli errori e agevolarne il recupero.

° Inserire molte immagini.

° Limitare l’uso della grafica.

° Evitare le animazioni.

 

 

 

 

 

 

 

 

 

 

 

 

Bibliografia

 

B. Amoroso "L’apartheid globale" Edizioni Lavoro Roma 1999

Il fenomeno della globalizzazione: l’autore si chiede se esistano alternative ad un sistema che produce, da un lato, omologazione di comportamenti e nei consumi e, dall’altro, marginalizzazione per i tre quarti dell’umanità.

F. Carlini "Lo stile del web" Einaudi – Torino 1999

I problemi che il web deve risolvere sono simili a quelli che, a suo tempo, ha dovuto affrontare il libro: costruire una sintassi e una semantica, immaginare e costruire un pubblico di lettori, inventare una segnaletica e uno stile di scrittura-visiva tale da poter essere compresa da tutti.

G.P. Landow "Ipertesto.Il futuro della scrittura" Baskerville – Bologna 1993

La singolarità e la diversità dell’ipertesto consentono di riformulare gran parte dei nostri concetti di scrittura e di lettura; la preminenza dell’autore viene rovesciata, lo schema lineare della stampa è stravolto, il lettore può scegliere gli itinerari su cui operare e pensare o leggere in modo non sequenziale. L’autore vede l’ipertesto come potente strumento educativo e di ricerca.

D.A. Norman "La caffettiera del masochista" Giunti - Firenze 1997

Psicopatologia degli oggetti quotidiani. Un processo al cattivo design condotto dal principale esponente del cognitivismo; lo scarto che intercorre fra il funzionamento della mente umana e gran parte degli oggetti che siamo costretti ad usare.

N.Negroponte "Essere digitali" Sperling & Kupfer – Milano 1995

Partendo dal presupposto che l’informatica non riguarda più solo il computer, l’autore dedica un’ampia sezione del libro all’incontro fra i Bit e le persone e il luogo in cui avviene questo scambio è l’interfaccia del web. Il rapporto tra l’utente e i dati passa inevitabilmente dallo schermo ed è difficile essere digitali se la mediazione è faticosa e difficile.

S.Bertuglia, F.Bertuglia, A.Magnaghi "Il museo tra reale e virtuale" Editori Riuniti – Roma 1999

Il museo attuale si avvale di strumenti tecnologici sempre più sofisticati in cui la raccolta di materiali può prescindere dalla reale presenza degli oggetti. La progettazione e l’allestimento dei musei allora deve essere ripensata sulla base di questa nuova situazione.

P.Levy " Il virtuale" Raffaello Cortina Editore – Milano 1997

Il primo manuale di filosofia del virtuale che insegna come il virtuale sia il germe di un diverso modo di essere nel reale e come tale costituisca un potenziamento della realtà.

M.Mc Luhan "Gli strumenti del comunicare" Il Saggiatore – Milano 1967 e

"La Galassia Gutenberg" Milano 1988

Testi fondamentali per l’innovativo approccio al problema dei mezzi di comunicazione di massa. Occorre identificarli non in base al contenuto, ma alle particolari condizioni di fruizione che essi impongono e ai loro effetti sociali. E’ a lui che si deve il termine villaggio globale.

S.Sansavini "Accesso telematico universale" in "Una ragnatela sulla trasformazione" a cura di A.C.Freschi, L.Leonardi – City Lights Italia – Firenze 1998

Il saggio di Sansavini, contenuto nel volume che raccoglie le idee e gli scritti maturati all’interno di due seminari attivati dalla Facoltà di Scienze Politiche di Firenze sulle implicazioni che le nuove tecnologie della comunicazione hanno sui vari aspetti della vita sociale, orienta la riflessione sul software e sulle case produttrici di software, in quanto elementi chiave perché l’accesso ai nuovi mezzi di comunicazione diventi universale.

"Nubi all’orizzonte" (a cura di Stranonetwork) Castelvecchi – Roma 1996

Atti del Convegno "Diritto alla comunicazione nello scenario di fine millennio" Museo Pecci di Prato – Febbraio 1995. Il libro raccoglie gli interventi, in certi casi profetici, di una realtà, tutta italiana, delle reti, ancora primordiale, antecedente all’era di Internet, in cui la comunicazione avveniva mediante reti telematiche amatoriali (BBS).

M.Visciola " Usabilità dei siti web" Apogeo – Milano 2000

Il problema dell’usabilità non si risolve contando sulla buona volontà degli utenti, ma va affrontato con metodologie di controllo e procedure valutative specifiche. Non è ammissibile che l’utente si trovi di fronte a pagine incomprensibili, caotiche e dispersive, insomma, non usabili.

 

Indirizzi Internet

http//www.aipa.it – Autorità Informatica Pubblica Amministrazione

http//www.punto-informatico.it – Rivista telemematica

http//www.html.it – portale italiano sul controllo di qualità

http//www.w3c.org – World Wide Web Consortion

http//www.u-hf.com – Usabilità dei siti (a cura di Michele Visciola)

http//www.progettotrio.it

http//www.xs2web.org – Accessibilità ( a cura di Ferry Byte)

http//www.useit.com – Usability websites ( a cura di J. Nielsen)

http//www.useware.it – Usabilità dei siti ( a cura di Cinzia Stortone)

http//www.hyperlab.net

http//www.apogeonline.com

http//www.unesco.org – Usabilità (a cura di Marco Scalvini)

http//www.mindspring.com/~jntolva/main.html - Alcune suggestioni riguardo a ipertesti e rinascimento.

http//www.liberliber.it/biblioteca/testiinhtml/d/debiblio/index.htm - Intervento di Umberto Eco sul ruolo delle biblioteche.

http//www.mediamente.rai.it/home/bibliote/tematich/index.htm - Interviste su ipertesti e Web nel sito di "Mediamente".

http//www.liberliber.it/biblioteca/testiinhtml/g/guid_htm/index.htm - Edizione Italiana della Guida Internet della Electronic Frontier Foundation.

http//www.comune.cremona.it/internet/libro/ - Versione on-line del libro "Internet 98" Laterza.

http://www.regione.emilia-romagna.it/dg_sit/convegnodue/usabilita.htm buon documento sui principi di ergonomia applicati al web http://www.partners.it/qualità_design_siti.htm La qualità nel design dei siti internet
http://www.ssgrr.it/usability/quaderni/ Quaderni di usabilità
http://lcweb.loc.gov/global/internet/history.html La storia di internet e www
http://www.nowhere.it/flash/wp.html considerazioni su motivi di successo di un sito
http://www.point.uni.it/networkformazi/quasta/planning/interf.html alcune delle idee di questa dispensa sono state suggerite da questo sito
http://www.cittadigitali.it/access/standard.html interessanti link sugli standard di accessibilità
http://liftonline.usablenet.com/ testa on line l'usabilità di un sito: estremamente interessante, anche perché rende espliciti i criteri di rating dell'usabilità
http://www.hwg.org/resources/ directory di link molto interessanti
http://www.gmarketing.com/ guerrilla marketing: strategie di marketing aggressive ma intelligenti
http://www.upassoc.org/html/newsletter.html sito dell'UPA
http://www.wmsociety.org/trend/index.html alcuni articoli interessanti sul web
http://digilander.iol.it/appuntiinternet/14consigli.html Loris Tissino: cose da fare e da non fare: elenco dettagliato di accorgimenti tecnici da adottare e da evitare
http://www.alias.it/ buoni suggerimenti pratici.