assemblare pc 2017

Assemblare 2017 – Le migliori novità dell’anno appena concluso

Assemblare che passione…

L’atto di assemblare presuppone l’uso del classico PC desktop, quel meraviglioso ingombrante scatolone a cui collegare tastiera, mouse e monitor, che sembra ormai prossimo a ritirarsi in letargo. Relegato nella penombra confortante di studi e uffici, il desktop sta abbandonando definitivamente il suo posto di oggetto di casa.
Effettivamente per navigare in internet, vedere youtube, pubblicare sui social e scrivere occasionalmente qualche email, il tablet è lo strumento più adatto. Per chi ha esigenze un po’ più sviluppate ci sono portatili e trasformabili dai prezzi abbordabili e caratteristiche interessanti che hanno un ingombro minimo e l’ovvio, interessante, incentivo di poter essere trasportati con facilità.

Eppure il desktop resta il dispositivo più adatto a chi cerca uno strumento di lavoro solido, affidabile, potente e relativamente economico. Assemblare un computer desktop in particolare è un atto molto simile alla sartoria: si può realizzare uno strumento “cucito addosso” al proprio utilizzatore.

La durata di vita del così detto computer fisso è di sicuro la più elevata nel mondo informatico; inoltre il fatto di poter sostituire o aggiungere componenti ne prolunga ancor più la durata.
Non è insolito, infatti, trovare computer fissi, perfettamente funzionanti e ancora adatti al proprio scopo, che montano schede madri di 15 anni fa. Per esempio, il core 2 duo è un processore del 2006 ancora capace di far girare windows 7 con dignità (e Linux alla grande!) e si poteva montare sullo storico socket LGA 775: parliamo quindi di schede madri prodotte a partire dal 2000. Impensabile per qualunque altro apparecchio informatico: il tempo utile di vita di un normale portatile è di 5-6 anni e solo se si è disposti a vederlo arrancare fino alla fine.

Partendo da questa riflessione si sviluppa questo articolo. L’articolo non vuole assolutamente essere una presentazione esaustiva dell’hardware ad oggi a disposizione ma solo una sorta di linea guida alla scelta dei pezzi dalle potenzialità più interessanti del 2017.

Il Processore

I nuovi processori Intel Coffee Lake rilasciati ad ottobre 2017 rappresentano l’ottava generazione dei processori Intel e presentano delle novità entusiasmanti nell’architettura del processore che riporta la capacità e velocità di calcolo al centro di fuoco dello sviluppo (da tempo dirottato verso la capacità multimediale e la riduzione dei consumi).

Il processore è stato presentato nei vari “tagli” di efficienza ormai tipici della Intel:

  • il Core i7, dedicato ai computer di fascia alta, uscito in due varianti pressoché identiche, la 8700 e l’8700K, che si differenziano quasi solo per la richiesta energetica (65W l’uno e 95W l’altro);
  • il Core i5 di fascia media, uscito in due varianti, 8400 e 8600K (anch’esse si differenziano per la potenza energetica richiesta, 65W e 95W, ma hanno anche una notevole differenza nel clock-rate della CPU)
  • e il Core i3 che rappresenta la fascia economica ed è uscito anch’esso in due varianti.

In particolare il Coffee Lake i5 è un opzione d’acquisto estremamente interessante per ogni tipo di macchina dato che resta in una fascia di prezzo tra i 200 e i 300 euro ma consente di sfiorare vette di elaborazioni davvero elevate assestandosi sui livelli dei ben più costosi Ryzen 5; nella sua versione a 8600K rivaleggia tranquillamente con l’i7 di stessa generazione e praticamente lo eguaglia a breve termine (l’i7 ha il doppio dei core dell’i5, ben 12, quindi una capacità di calcolo nominalmente doppia ma nessuna applicazione, ad eccezione di alcuni videogiochi come Crysis 3, sfrutta ad oggi tutti quei processori).

Ci sono un paio di eccezioni a questo discorso:

  • Per il settore gaming c’è da dire che la gestione del frame-rate e del frame-times a frequenze superiori a 100hz allunga la distanza tra i5 e i7, rendendo evidente la maggiore efficienza di quest’ultimo. Stiamo comunque parlando di speciali monitor che lavorano a frequenze di 120Hz o 144Hz, la cui utilità è piuttosto dubbia. Per display a normale frequenza (60Hz, 75Hz o 100Hz) l’i5 resta una proposta di alto livello ad un costo estremamente contenuto.
  • Per il settore server l’i7 mantiene qualche punto in più nella gestione del terminal-server a più di 10 terminali (stiamo quindi parlando di un server per terminal-server su uffici di medie dimensioni) quando questi lavorano tutti in contemporanea.

Tutti i Coffee Lake integrano una scheda video Intel UHD Graphics 630, la stessa del Kaby Lake ma con risoluzione Ultra HD e relativi codec. Si tratta di una scheda video più che dignitosa che evita l’acquisto di una scheda dedicata in molti tipi di configurazioni.

Per quanto riguarda la memoria Coffee Lake supporta nativamente le memorie DDR4-2666 MHz in dual channel mode; l’ECC non è supportata (l’ECC sono memorie con il controllo di errore, riservate ad usi particolari). Il tetto massimo della quantità di memoria usabile è 64GB.

Ultimo dettaglio da prendere in considerazione è la scheda madre. Il nuovo Coffee Lake usa la versione 2 del socket 1151 quindi richiede una nuova scheda madre con chipset Z370. Ovviamente il prezzo attuale di queste schede madri è piuttosto elevato anche se i prezzi scendono velocemente.  La difficoltà di trovare schede madri economiche potrebbe rendere l’opzione Coffee Lake meno appetibile per configurazioni economiche.

Comunque per fascia media e medio-alta, l’i5 Coffee Lake è la migliore proposta attualmente su mercato.
In alternativa è possibile puntare su un Intel Core i7 (con un incremento di 100€ sul costo finale).

La scheda Madre

La scelta della scheda madre dipende da tantissimi fattori, attualmente le proposte più interessanti vengono da Asus e da AsRock, sia nel formato ATX che mini-ITX.
In genere le schede Asus tendono ad essere più equipaggiate (molte hanno per esempio il wifi integrato) mentre le AsRock più economiche ma con qualche vezzo stilistico non da sottovalutare che strizza l’occhio ai gamers. Essendo prodotti così recenti il panorama è comunque in rapido mutamento quindi, più che analizzare qualche modello nel dettaglio, è interessante cercare di capire quali caratteristiche siano indispensabili tra tutte quelle disponibili.

Facciamo un piccolo passo indietro: parliamo di schede madri con Socket 1151.v2 e Il chipset Z370.

Il Socket LGA 1151 v2 è l’alloggiamento a cui si aggancia il processore, è esternamente identico alla sua versione 1 ma la configurazione dei pin è fisicamente differente da quella utilizzata sugli LGA 1151, quindi incompatibile coi precedenti processori.

Il chipset Z370 è il chip che gestisce il funzionamento logico di tutti i componenti collegati alla scheda madre. Teoricamente esistono 3 chipset per Coffee Lake: lo Z370, l’H370 e il B360; in pratica sul mercato, per ora, è uscita solo la serie Z: quella più orientata all’overclock e al gaming. Lo Z370 è in grado di gestire fino a 14 USB 2.0, 10 USB 3.0 e 6 SATA 6 Gbps; supporta fino a 24 corsie PCI Express 3.0;  inoltre include il supporto per Thunderbolt 3. Come già accennato permette l’overclock del processore (a patto che si tratti di un processore sbloccato come l’i5 8600K, la K finale indica appunto la possibilità di moltiplicare il clock-rate).

Passiamo ora alle caratteristiche la scheda madre deve avere.

Il formato della scheda madre

Il formato della scheda madre dipende dal case che si punta ad utilizzare.

Negli ultimi anni la quantità e la dimensione dei componenti all’interno del pc si è molto ridotta, se non si pensa di lavorare con numerosi dischi fissi e si puntare al formato mini-ITX (17x17cm) che ci permette di realizzare computer più graziosi e piccoli, adatti ad un appartamento. Se si sceglie questo formato tutti i componenti andranno scelti con grande attenzione per assicurarsi non siano troppo grandi e non ultimo vanno studiate con attenzione le esigenze di raffreddamento. Non si deve invece rinunciare ad una buona scheda video qualora lo scopo del computer la richieda (per esempio la Nvidia GeForce 1060 6GB di cui parleremo più avanti è uscita anche in formato mini, lunga solo 16,9 cm); lunghezza e altezza massime della scheda video sono indicati nella scheda tecnica del case scelto.

Lo standard l’ATX (30,5 x 24,4 cm) comunque una più ampia libertà nella scelta dei componenti interni e maggiori possibilità di futuri ampliamenti.

Esiste un terzo formato molto diffuso, il Micro-ATX (24,4 x 24,4 cm) ma, ad oggi, non risulta molto interessante dato che i case che lo supportano non si discostano abbastanza nelle dimensioni da un normale case ATX.

La scheda sonora

Se non si lavora professionalmente con l’audio, l’acquisto di una scheda audio dedicata non è giustificato. Dato che la scheda audio è integrata nella scheda madre e non sostituibile, la qualità di questo componente è uno degli elementi più discriminanti nella scelta della scheda madre. In genere tutte le schede madri Z370, essendo teoricamente orientate al gaming, equipaggiano schede audio 7.1 di buona qualità. E’ comunque sempre bene verificare che la qualità della scheda audio integrata sia soddisfacente prima di procedere ad un acquisto.

La scheda WiFi

Alcune schede madri integrano chip per la connessioni Wifi e\o Bluetooth. E’ una caratteristica interessante da prendere in considerazione. Quando non integrata, la scheda Wifi può essere prevista come modulo aggiuntivo tramite connettori M.2 key E.

Gli slot interni

Tra gli slot interni indispensabili, oltre al canonico PCIe 16x per la scheda video, bisogna considerare almeno 2 slot PCIe 4x per espansioni future.

Le PCIe 4x non garantiscono solo una maggiore velocità di comunicazione tra eventuali schede aggiuntive e il chipset della scheda madre ma anche una migliore compatibilità con i componenti futuri: esistono già su mercato per esempio degli SSD ad attacco PCI express che per lavorare al meglio necessitano di quattro canali.

Uno dei socket moderni più interessanti è l’M.2 key M (di cui parleremo nel dettaglio più avanti), la dicitura Dual M.2 su schede madri Z370 indica la presenza di due connettori M.2 Key M PCIe 4x che possono lavorare in RAID o indipendentemente ed è sicuramente una caratteristica da desiderare.

Le porte esterne

L’unica cosa che c’è da dire sulle porte presenti sulle schede madri riguarda l’USB type C. C’è molta confusione al riguardo: l’USB type C non è un tipo di connessione di per sé ma solo un tipo di connettore; dietro una porta type C può nascondersi una connessione USB 3.0 (che fornisce 4.5W di alimentazione a fronte di input a 5V e ha una velocità di trasferimento di 5 Gbit/s), USB 3.1 (fornisce da 10W a 100W di alimentazione a seconda del profilo sempre a fronte 5V e ha una velocità di trasferimento di 10 Gbit/s) o Thunderbolt 3.

Thunderbolt 3 è un protocollo alternativo all’usb che oltre al trasferimento dati può servire per il trasferimento dei flussi audio/video. Lavora alla stessa velocità di una PCIe annullando il collo di bottiglia nei trasferimenti dati (parliamo di una possibilità teorica di trasferimento fino a 100 Gbit/s, attualmente la tecnologia ne consente circa 40 Gbit/s in due canali). Con la versione 3 di Thunderbolt si passa dal vecchio connettore mini DisplayPort di Apple al più adattabile USB type C: è quindi possibile la compatibilità con una vasta gamma di dispositivi, USB e non solo, tramite semplici adattatori. Può erogare fino a 100W di alimentazione e gestisce un massimo di 6 dispositivi in cascata.

Mentre le porte USB 3.1 sono sicuramente il nuovo standard e più ce ne sono meglio è, una porta Thundebolt 3 non è sicuramente una necessità, si tratta comunque di una tecnologia interessante e da tenere d’occhio.

Per quanto riguarda le porte display, oltre a quelle per il collegamento al monitor scelto, è opportuno assicurarsi che la scheda madre implementi almeno una porta HDMI 2.0a.

Tecnologie integrate

Una delle caratteristiche più utili nelle schede madri moderne è la protezione ESD contro le scariche elettrostatiche realizzata grazie all’uso di componenti elettrostatici-sorvegliati ed una particolare costruzione dei condensatori. Le tecnologie di punta che la includono sono LANGuard per Asus, Full Spike Protection per AsRock, Safeguard per MSI.

In alcune schede è possibile trovare la certificazione di compatibilità per Intel Optane. La mancanza di certificazione non implica l’incompatibilità: in realtà tutte le schede con socket M.2 key M possono funzionare con questa tecnologia ma spesso esistono delle incompatibilità di bus o di bios non facilmente prevedibili.
Intel Optane è un tipo di memoria densa e non volatile capace di latenze inferiore alle DRAM (la tecnologia che è dietro lo sviluppo delle memorie RAM del pc). Lo scopo principale dei moduli Optane è fare da ponte tra RAM e hard disk (funziona come una grande cache permanente) rendendo qualsiasi disco rapido nelle operazioni tanto quanto dischi SSD M.2 NVMe PCIe 4x (vedi avanti). I moduli hanno connettore M.2 key M.
Nonostante la tecnologia sia affascinante, non è priva di difetti: per funzionare ha bisogno del supporto software a livello di Sistema Operativo ed attualmente funziona solo con Windows 10 64bit; non supporta le configurazioni RAID; non è applicabile, allo stato di sviluppo attuale, a nessun altro disco oltre a quello di sistema.

L’abbassamento dei costi dei dischi SSD M.2 NVMe PCIe 4x ha reso l’Optain poco interessante perché ne ha di fatto annullato il vantaggio economico (i moduli usciti ad oggi sono da 16GB a 40 euro e 32GB a 80euro, un disco M.2 NVMe da 128GB si può trovare anche a 60 euro).

Molto più interessante è tecnologia che ne è alla base, la 3D Xpoint, che permette di costruire memorie solide estremamente veloci e compatte (è priva di transistor) ma non volatili. E’ presumibile vederla diffusa nei prossimi anni in svariate altre applicazioni (nel corso del 2017 si sono visti i primi dischi SSD Optaine molto più veloci degli attuali SSD NAND).

Un’ultima menzione va fatta a i sistemi di ottimizzazione e gestione del raffreddamento; anche qui variano nome e caratteristiche secondo le marche ma l’importante è che sia previsto nella scheda madre un sistema di controllo completo delle ventole, un buona rete di sensori termici e i dissipatori per i dischi SSD M.2.

La memoria

Come detto il Coffee Lake supporta nativamente le memorie DDR4-2666 MHz in dual channel mode per un massimo di 64GB.

In genere è pensabile orientarsi su 16GB di memoria DDR4 2400 o 2666 in un unico banchetto o in dual channel 2x8GB.
16GB una quantità più che generosa per la maggior parte di usi e la RAM è uno dei componenti in assoluto più facili da aggiornare quindi non ha molto senso spenderci sopra un capitale pensando ad usi futuri. C’è anche da tenere presente che notare differenze di prestazioni tra una memoria che lavora a 2400 ed una che lavora a 2666 è quasi impossibile.
Maggiori quantità di memoria e frequenze più veloci sono da prendere in considerazione solo se si sta assemblando un pc per l’editing audio-video.

Il Disco SSD

Di dischi allo stato solido in questi anni si è parlato molto, un po’ meno dei dischi M.2.

Il Disco allo stato solido M.2 è un paricolare tipo di SSD con un soket dedicato per una connessione diretta alla CPU al fine di migliorne ulteriormente le prestazioni quando usato come disco di sistema; ricorda più una ram che un hard disk a livello di ingombro ed ha velocità di trasferimento che può sfiorare i 32 Gb/s dando quindi un notevole boost alla configurazione. Di contro questo tipo di dischi non ha ancora un unico standard affermato e spesso i dischi in commercio sono basati su SATA e non su PCIe riservando ben pochi miglioramenti rispetto a un normale SSD. Inoltre degli stessi SSD M2 PCIe esistono 3 differenti generazioni con differenti numeri di vie (variano da 2 a 4) e differenti velocità massime. L’alloggiamento stesso puo’ prevedere differenti tipi di tacche (B, M, M+B dove M è la tacca pensata per il PCIe puro a 4 vie) e il formato del drive può variare (particolare da non sottovalutare in una configurazione Mini-ITX dove gli spazi sono estremamente ridotti). E in ultimo le prestazioni sono condizionate anche dall’uso del protocollo AHCI o NVMe (l’NVMe aiuta a ridurre le latenze ma essendo parte dell’architettura, e non implementato attraverso driver, non è sempre supportato).

Fino alla fine del 2017 cercare di avere la giusta configurazione chipset + connettori + disco SSD M.2 era una sfida. Le schede madri precedenti alle z370 hanno molte limitazioni di compatibilità nei confronti dello standard M2, che possono essere a livello di bus, chipset e bios.  Con l’uscita delle nuove schede madri con chipset z370 il panorama è cambiato. Le nuove architetture prevedono, come parte della specifica, il supporto completo degli M2 in versione NVMe PCIe Gen3 4x con raid fisico fino a 4 dischi (anche se alcune schede madri più economiche sono limitate ed hanno, per il raid, un controller opzionale da acquistare a parte).

Tutte le sigle dell’ SSD M.2 NVMe PCIe Gen3 4x

Cerchiamo di fare un po’ di chiarezza:

  • SSD ovviamente sta per Solid State Disk, ovvero disco allo stato solido, ovvero dischi privi di parti meccaniche che usano la tecnologia delle memorie flash. Hanno un limite di riscrittura che ne rende la vita sensibilmente più breve dei normali dischi fissi ma anche una totale assenza di suoni e vibrazioni e una spiccata predisposizione ad essere maltrattati senza conseguenze (grazie all’assenza di parti meccaniche interne). La loro velocità nella ricerca e recupero di un dato desiderato è del 30% superiore a un disco normale e la loro velocità di scrittura circa quadrupla.
  • M2 è lo standard del socket di collegamento, pensato per i computer portatili riduce al minimo l’ingombro dei componenti. L’M2 per SSD (tramite standard M2 sono state sviluppate anche molti altri tipi di moduli di espansione come ad esempio quelle di rete) è entrato a far parte dello standard desktop ormai da qualche hanno ed è ufficialmente previsto sulle schede madri Z370.
  • La sigla NVMe indica il Protocollo di trasferimento: il vecchio standard AHCI (comune a molte periferiche e basato su driver) è stato sostituito dal nuovo protocollo di basso livello NVMe progettato appositamente per le memorie NAND (quindi anche gli SSD). L’NVMe ha lo scopo di migliorare aumentare la banda e ridurre la latenza quando si processano grandi mole di dati.
  • La sigla successiva indica lo standard di interfaccia usato, la velocità massima di comunicazioni tramite PCIe di terza generazione è molto superiore al SATA III (l’altra interfaccia in cui gli SSD M2 sono disponibili). A volte invece della sigla PCIe Gen3 è possibile trovare la sigla PCIe 3.0 del tutto equivalente.
  • Infine il 4x indica il numero di vie supportate: i vari tipi di periferiche M.2 si differenziano tramite module keys ossia tramite la forma fisica del connettore. Le Key usate per gli SSD sono chiamate B (a 2 vie) e M (a quattro vie); i connettori B+M presenti in alcuni SSD servono per rendere compatibile il disco sia che l’M2 della schede madre preveda il key B, sia che preveda il key M (ma spesso dischi di questo tipo lavorano comunque a due vie). Gli M2 a 4 vie sono ad oggi gli M2 più efficienti del mercato.

NOTA: i soket M.2 key E che si trovano su alcune schede madri servono normalmente per la connessione di moduli WiFi/Bluetooth opzionali.

Ma l’SSD è necessario?

Assolutamente no, ma è un gran bel giocattolo. Soprattutto l’M2 NVMe PCIe Gen3 che, grazie ai nuovi chipset z370, è quest’anno finalmente pienamente supportato. Se il budget lo permette è sicuramente il componente “opzionale” che dà maggiori vantaggi a livello di prestazioni sul sistema.
E’ sempre consigliabile per server e per qualsiasi altro tipo di applicazione in cui conti la risposta in tempo reale. Se lavorate soprattutto con le macchine virtuali invece potrebbe essere superfluo.

Contando come taglio minimo 128GB, possiamo dire che il prezzo di un disco oscilla tra i 50 euro e gli 80 euro. Per esempio ho trovato un AData XPG SX8000 128GB a 59€.
L’investimento sembra contenuto se non si prende in considerazione che al prezzo dell’ SSD M2 vanno aggiunti circa altri 80 euro per un buon disco fisso SATA da 1 o 2 TB in cui archiviare i dati: i 128GB dell’ SSD bastano per il Sistema Operativo e tutti i programmi ma sono davvero pochi per archiviare anche solo delle fotografie.

Un ultimo appunto. Alcuni puntano a dischi SSD molto più capienti per evitare l’acquisto di un secondo disco ma non è una buona idea: gli SSD sono un’ottima scelta per conservare i dati operativi ma non sono l’ideale per i dati da archivio. Come già detto sono molto meno longevi di un disco meccanico, le possibilità di recupero dai in caso di malfunzionamenti sono molto più limitate. Inoltre la scelta non è neppure vantaggiosa economicamente, se si vuole puntare su un M.2: un disco SSD M.2 da 256MB sta su 140-170 euro, per un M.2 128GB + un sata normale da 1 TB si spendono 120-140 euro. Se si vuole risparmiare ma acquistare comunque un SSD M2 è possibile invece pensare di rimandare l’acquisto del secondo disco in un momento successivo o, se si lavora con più computer, considerare di introdurre un NAS nello schema della propria rete (parleremo di NAS e di soluzioni TERMINAL-SERVER in un prossimo articolo).

Per concudere:

Scelto Processore, Scheda Madre, Case, Memoria e Disco mancano solo Alimentatore, Scheda Video e Monitor per finire di assemblare il computer.

L’alimentatore

L’alimentatore è uno dei componenti in assoluto più importanti del pc perché ne garantisce la durata nel tempo. Sceglietelo con cura, la potenza erogata è l’ultimo dei parametri da prendere in considerazione (in genere 500Watt circa sono più che sufficienti). La prima sicuramente è la qualità costruttiva (però difficilissima da valutare dato che uno stesso modello può essere prodotto con differenti componenti e condensatori interni) e i sistemi di protezione previsti.

i sistemi di protezione sono:

  • OVP: Protezione Sovratensione,
  • UVP: Protezione bassa tensione,
  • NLO: Operazione No-Load,
  • SCP: Protezione corto circuiti,
  • OCP: Protezione sovracorrente,
  • OLP (OPP): Protezione sovraccarico;
  • OTP: Protezione surriscaldamento.

Una delle certificazioni utili è l’80 plus che attesta un livello di efficienza almeno pari all’80% (ne esistono diversi “colori” che indicano i vari livelli di efficienza dall’80 in su); esistono tuttavia alimentatori non certificati con pari caratteristiche e costi normalmente inferiori.

Infine si può prendere in considerazione se comprare un alimentatore modulare in cui i cavi non utilizzati possono essere rimossi per non ingombrare l’interno del case (o semi modulare dove si possono rimuovere solo alcuni casi e che sono meno costosi rispetto a quelli completamente modulari).

Fate le vostre ricerche con cura ma considerate di spendere almeno 80 euro per un buon alimentatore nuovo (l’usato certificato è un’ottima alternativa).

Scheda video

Per quanto riguarda la scheda video dedicata è necessaria solo se si lavora con la grafica o si vuole usare il computer per i videogiochi. In tutti gli altri casi non è indispensabile; se usate un processore Coffe Lake, la Intel UHD 630 integrata è una buona scheda video con una spiccata preferenza per la decodifica stream. Gestisce bene il 4k e la VR e ha anche performance decenti con molti videogiochi (magari evitando di giocare a 1080p e di sicuro non in 4k, ma a 72op sì).

Il minimo di riferimento, per incremento di prestazioni nel gaming, è la Nvidia GeForce GTX 660 (o l’AMD Radeon HD 7870) con 2GB di memoria; qualunque scheda superiore è bene accetta. Nel mercato attuale, quindi senza riferirsi al mercato dell’usato (comunque molto interessante), uno dei compromessi migliori tra potenza e costo è la Nvidia GeForce GTX 1060 con 3GB o 6GB di memoria integrata. che si trova in vendita appena sotto i 300 euro nella sua versione 6GB. La sua equivalente AMD/ATI è la Radeon RX 480 4GB o 8GB. Entrambe le schede non rientrano a pieno titolo nello scope dell’articolo essendo uscite a metà 2016, il riferimento 2017 è invece la Nvidia GTX 1080 Ti:  una scheda meravigliosa, di fascia altissima che sfiora i 900 euro di costo.

Monitor

Per la scelta del monitor la prima scelta da effettuare riguarda il tipo di pannello utilizzato: le due tecnologie, estremamente diverse tra loro, sono IPS e TN. Ognuna delle due hai suoi punti di forza: in breve IPS ha una fedeltà colore e una uniformità di immagine maggiore (quindi molto adatti alla grafica) mentre i TN hanno frequenze di refresh molto più elevate e tempi di risposta minimi (di solito preferiti per il gaming). Ultimamente gli IPS stanno venendo apprezzati anche per il gaming grazie ad alcuni accorgimenti che ne migliorano i tempi di risposta. Sul mercato si sono affacciati nel 2017 IPS a 75Hz con tempi di risposta di 1ms tra i 200 e i 300 euro.

Tenete presente che una frequenza di 75Hz rispetto ai 60Hz garantisce a livello lavorativo grandi vantaggi perché stanca molto meno gli occhi.

Per il gaming utili quando si parla di monitor sono la tecnologia AMD Freesync, che risolve i problemi di sincronizzazione tra GPU AMD e monitor, e Nvidia G-Sync, pari tecnologia ma per GPU Nvidia . E’ possibile trovare monitor Freesync a prezzi abbordabili mentre i monitor che supportano G-Sync rientrano in fasce di prezzo molto più elevate.

iPhone x

IPHONE X: MakeUp Artists vs. Apple Face-ID

 

Il 3 novembre esce (anche in Italia il) nuovissimo gioiellino targato Apple: l’IPhone X (leggasi “ten”, dieci in inglese), successore del Iphone 9 integra dentro di se il meglio della tecnologia attualmente disponibile sul mercato.

Uno schermo da 5.8’’ Super retina da 588 punti per pollice, un processore
A11 Bionic a 6 core con motore neurale per il riconoscimento biometrico.
Una telecamera con grandangolo e teleobiettivo incorporati che registra video in 4K a 60fps e a 1080 a 240fps.

 

true-depth-apple

Ma la novità introdotta che sicuramente ha catturato la nostra attenzione è la funzionalità chiamata Face-ID. Grazie a questa tecnologia il telefono effettuerà la rilevazione del volto del proprietario che potrà poi essere utilizzato per sbloccare il telefono ed effettuare pagamenti online.

Molti altri produttori di telefoni hanno provato in passato a dotare i propri prodotti di una tecnologia simile con risultati spesso discutibili. Su molti telefoni infatti era possibile sbloccare il dispositivo anche con fotografie o con maschere iperrealistiche. Il dispositivo della Apple rappresenta un passo avanti rispetto a questa tecnologia poiché combina illuminatori infrarossi, telecamera infrarossi, telecamera normale e reti neurali hardware per ottenere un’affidabilità dichiarata di 1 errore su un m

ilione.

Dalle dichiarazioni fornite dalla Apple, per sviluppare questo sistema sono state scomodate le maggiori autorità in campo di make-up prostetico di Hollywood. Sono stati condotti inoltre migliaia di test con fotografie e maschere proprio per assicurare la quasi totale infallibilità del dispositivo. I volti oltre che come strumenti di test sono stati usati come “training set” per il setup della rete neurale che opera la prima fase del riconoscimento stesso, ossia l’individuazione del volto umano.

maschere iPhone x

In Italia presso i laboratori della Baburka Production, su idea della Nikada Film, è stato condotto un esperimento che sfidasse il dispositivo di Cupertino (vedi il video). L’intento dichiarato era quello di competere la tecnologia della Apple con una riproduzione iperrealistica in silicone di una modella umana.

L’esperimento ha dato ragione alla Apple: il sistema di FaceID ha superato a pieni voti il test rimanendo sempre bloccato di fronte al volto in silicone che i bravissimi artisti di Baburka hanno creato per metterlo alla prova. Il telefono si sbloccava solo tramite il vero volto della modella e non con la riproduzione. I test sono stati condotti utilizzando anche coperture del volto parziali, diverse angolazioni dello sguardo e del volto, diverse temperature e condizioni di luce. In tutti i casi la resa del sistema si è dimostrata decisamente all’altezza, giusto qualche incertezza nello sbloccarsi con il volto della modella in alcune condizioni, ma mai tali da dubitare dell’efficacia del sistema e comunque ci si può aspettare che nelle prima fasi il sistema abbia bisogno di un periodo di setup per allenare la rete neurale al riconoscimento immediato del volto in qualunque condizione sbloccaggio dopo sbloccaggio.

Ma cosa ha reso possibile un avanzamento tecnologico del genere?

Leggendo la overview della Apple si legge che il Face ID è disegnato per riconoscere l’attenzione dell’utente ed evitare le falsificazioni sia digitali che fisiche. La telecamera utilizza una tecnologia denominata “TrueDepth” che insieme al chip A11 sviluppato appositamente esegue la scansione tridimensionale del volto (tramite questa tecnologia è anche possibile scattare dei selfie con lo sfondo sfocato).  Per poter eseguire la scansione del volto in tutte le condizioni di luce, oltre ai sensori di prossimità e di luminosità vengono sfruttati tre ulteriori componenti tutti funzionanti in infrarosso: un illuminatore, un proiettore che proietta oltre 30.000 punti luminosi che vengono catturati dalla telecamera anche in condizioni di scarsa o nulla luminosità. L’immagine acquisita viene comparata con la rappresentazione acquisita in fase di setup e viene aggiornata dinamicamente ad ogni accesso compiuto sfruttando il motore neurale del chip A11 Bionic.

Il motore di riconoscimento del volto sviluppato rappresenta in definitiva la sintesi delle migliori tecniche attualmente disponibili sul mercato consumer. Tutte le tecnologie utilizzate sono state finemente messe insieme, nonostante prese singolarmente esistessero già tutte da almeno un decennio ciò che risulta notevole è lo sforzo fatto per miniaturizzare e rendere economicamente vantaggiosa la loro implementazione a testimonianza del fatto che ogni giorno la tecnologia evolve gettando le basi per i meravigliosi salti evolutivi che la storia ancora ci mantiene celati.

Il valore della semplificazione tecnologica

Lettera aperta ai tecnologi sul valore della Semplificazione

A volte gli esperti arrivano a determinate conclusioni con un ritardo imbarazzante rispetto alla gente comune.
In particolare in questi anni il mondo sociale ed economico è stato rivoluzionato da un trend sempre più diffuso che la maggioranza degli esperti fatica a comprendere appieno: sto parlando della semplificazione nella fruizione di servizi e dispositivi.

La nascita degli smartphone ha rappresentato un vero e proprio spartiacque tra prima e dopo, quale solo era stato la nascita del web.
L’evento è ancora abbastanza recente eppure molti dei suoi effetti hanno modificato tanto il tessuto  della nostra società da cambiarne le dinamiche.
Rendere più intuitiva, veloce e “trasparente” la tecnologia, anche solo di poco, è ormai garanzia di successo di pubblico. Basti pensare al successo delle interfacce Natural User, a quello degli aggregatori di servizi quali booking.com, expedia, amazon, airbnb, justeat e a tutto quel sottogenere di app che sostituisce la consultazione dei siti web.
La semplificazione è premiata perfino in quei casi in cui si sacrifica qualcosa in efficienza e flessibilità pur di ottenerla.

Eppure a tutt’oggi mi capita spesso di sentire obbiezioni a questa o quella innovazione o piattaforma informatica accusate di essere fondamentalmente inutili perché forniscono strumenti già esistenti in precedenza. «Cambia solo nel modo di utilizzo» «Tanto si può fare anche in quest’altro modo» sono le frasi usuali per liquidare idee che poi nella pratica prendono invece piede tra il vasto pubblico. Credo che il divario tra esperti e non esperti nell’apprezzamento per questo tipo di innovazioni sia oggi incolmabile.
Ma perché non riusciamo ad apprezzare il valore della semplificazione tanto quanto le altre persone? Anche noi ci avvantaggiamo dei miglioramenti in agilità e velocità che queste innovazioni portano nella vita quotidiana, eppure facciamo resistenza e tendiamo a non riconoscerne il valore fino a che non sono completamente mature e già diffuse.

Quello che la maggioranza di esperti si ostina a non capire è in fondo di una banalità disarmante: la tecnologia ha cambiato bacino di utenza; una nuova utenza che non ha mai cercato realmente la tecnologia ma l’ha trovata come parte della propria vita senza possibilità di riflessione o di scelta.
Questo ovviamente comporta una revisione storica nell’implicito patto che l’uomo ha stretto con l’Informatica.

L’Informatica è la promessa di un potere di creazione teoricamente senza limiti ceduto nelle mani di individui non necessariamente straordinari che votano la propria fatica, il proprio intelletto, il proprio tempo a mantenere ed evolvere tale potere.
So che sembra una speculazione filosofica ma il semplice atto di possedere un computer implica l’accettazione che ore e ore della propria vita saranno dedicate alla comprensione del suo funzionamento, alla scelta dei programmi, alla pulizia e organizzazione dei dati e ad un costante aggiornamento. Come in questo esempio, in tutti i campi se si tradisce questo patto la tecnologia smette di essere un’opportunità e diventa un ostacolo.

Tutti noi che in un modo o nell’altro rientriamo nel campo degli esperti informatici, dall’inizio di questa folle corsa, devotamente rispettiamo il patto. E risulta davvero difficile comprendere come i “non esperti” pretendano la stessa servitù dall’Informatica senza essere disposti neppure a sforzarsi di capire che premendo due tasti insieme su una tastiera si può ottenere una scorciatoia.
Dobbiamo rassegnarci ad accettare il tradimento: la Tecnologia è ora davvero alla portata di tutti, anche di chi non la rispetta.

Ed è solo in quest’ottica, solo abbandonando le nostre pretese “di punizione divina” verso questo vasto popolo di nuovi eretici, che possiamo finalmente ammetterlo: la semplificazione tecnologica è la nuova frontiera ed ha la stessa dignità di qualsiasi altra innovazione.

PC-go: assistenza e mentorchip tecnologica

Mentorship Tecnologico – una nuova figura professionale

Corre l’anno 2017, l’informatica e la tecnologia, generalmente parlando, sono diventate letteralmente pervasive ed il processo non tenderà certo ad arrestarsi nei prossimi anni.

Si stanno affacciando sulla scena mondiale sempre più servizi connessi ed interconnessi, intelligenze artificiali, dispositivi che ci localizzano, ci interconnettono, ci monitorano le condizioni di salute, finanziarie, ci danno possibilità di apprendere continuamente cose nuove, di sentire e vedere in tempo reale persone e fatti che stanno letteralmente dall’altra parte del mondo. Tutto questo non era minimamente fattibile fino a soli 20 anni fa.

Fino a metà degli anni 80 la tecnologia serviva l’uomo prevalentemente attraverso la meccanica, l’elettronica si trovava in una fase di espansione e i principi di causalità così come l’interazione tra uomo e mezzi tecnologici avveniva su scala macroscopica. Con un minimo di impegno e ricerca, aprendo, smontando e semplicemente curiosando un qualunque oggetto, anche tecnologico, ci si trovava ad osservare componenti il cui funzionamento poteva essere compreso. Si poteva comprendere il funzionamento della radio, della televisione, delle schede elettroniche, bastava studiare i principi che regolavano l’elettronica di base, due o tre libri (o magari una laurea) bastavano per acquisire moltissime competenze e capacità rispetto alla complessità che si trovava nella tecnologia dell’epoca. Al giorno d’oggi, per comprendere il modo in cui sono costruiti e funzionano i touchscreen, gli accelerometri, gli algoritmi, i processori e i milioni di altri componenti interni che formano la circuiteria di uno smartphone evoluto servirebbero almeno cinque lauree ed altrettanti dottorati di ricerca. Decisamente troppo per un solo uomo, in una sola vita.

Con l’avanzamento dei processi industriali, i costi di produzione sono stati via via abbattuti. I microchip e le componenti elettroniche hanno cominciato a popolare sempre più diffusamente elettrodomestici, mezzi di comunicazione, e trasporto rivoluzionando il nostro modo di utilizzare e percepire la tecnologia stessa.

Oggigiorno sempre meno persone possono pensare di comprendere bene il funzionamento di uno smartphone, di un televisore a led o di una consolle di gioco, tentare riparazioni delle circuiterie è molto più difficile se non impossibile essendo i circuiti stampati su nanoscala, gli algoritmi per la comunicazione senza fili hanno raggiunto standard di complessità elevatissimi, le componenti meccaniche visibili sono pressoché sparite tanto che aprendo uno smartphone oggi possiamo vedere solo un circuito compatto dal quale poter distinguere solamente la telecamera, il microfono e lo schermo.

La tecnologia serve l’uomo oppure l’uomo serve tramite la tecnologia?

Il sistema di funzionamento di molti sistemi sta andando velocemente oltre le capacità di gestione degli individui sebbene curiosi o addirittura esperti. Le case madri, dal canto loro, preferiscono tenere segrete le specifiche dei propri prodotti a livello hardware e software e dettare autonomamente tempi e politiche di ricambio. Nonostante la standardizzazione di alcuni componenti ogni prodotto è a sé stante e se a questo aggiungiamo metodologie di obsolescenza programmata (ossia specifici e premeditati provvedimenti, atti a limitare la vita delle apparecchiature tecnologiche per indurre l’utente a spendere) ci rendiamo conto che lo scenario tecnologico attuale è sempre più distaccato dal cliente, ormai cosiddetto “consumatore” che dovrebbe invece essere considerato non solo “consumatore” bensì un essere umano, una persona pensante di cui avere rispetto, alla quale la tecnologia deve, per sua stessa natura e scopo fin dagli albori dell’umanità, fornire un servizio, un’utilità, un valore aggiunto, un miglioramento.

Vediamo quindi che le logiche del mercato e del profitto assieme ad un forte impulso produttivo nell’ambito tecnologico hanno prodotto come effetto collaterale un completo ribaltamento del modo in cui l’uomo e la macchina si relazionano e ciò è un male se visto in prospettiva di un futuro sempre più evoluto, in cui le macchine saranno progettate allo scopo di comprendere le nostre abitudini, le nostre vite, le nostre emozioni, il nostro carattere e personalità, apparentemente per servirci ancora meglio. In altre parole, una forte decentralizzazione ed un contemporaneo accumulo del potere creativo e produttivo, della cultura e delle conoscenze dello stato dell’arte unite ad una divisione delle culture sociali ci hanno dato modo di godere dell’informatizzazione su larga scala ma un po’ meno di chiederci in che direzione tutto questo ci stesse portando. Il processo di globalizzazione ed il forte avanzamento tecnologico ci hanno dato la possibilità di potenziare le nostre capacità, ma noi come specie dobbiamo essere in grado di maneggiare correttamente questo strumento, che di per sé stesso ha carattere neutrale, la positività o negatività delle conseguenze a cui assistiamo è direttamente correlata al tipo di utilizzo che ne viene fatto. Un coltello può essere usato per tagliare la verdura in cucina o per commettere degli omicidi, non per questo nel mondo non si produrranno più coltelli.

Un bastone può essere usato per sorreggersi o per picchiare qualcuno, allo stesso modo la tecnologia può essere usata per migliorare le nostre esistenze così come per renderle un incubo. Pensate ad esempio alle molte ragazze che ogni anno perdono la vita suicide perché i loro video intimi a sfondo sessuale vengono pubblicati online.  Una stima realistica purtroppo non esiste. Gli ultimi dati Istat risalgono al 2014 ma a detta dei professionisti del settore sono decisamente sottostimati. Per l’Istituto nazionale di statistica nel 2014 poco più del 50% degli 11-17enni ha subìto qualche episodio offensivo, non rispettoso e/o violento da parte di altri ragazzi o ragazze nei 12 mesi precedenti. Il 19,8% è vittima assidua di una delle “tipiche” azioni di bullismo, cioè le subisce più volte al mese. Per il 9,1% gli atti di prepotenza si ripetono con cadenza settimanale. Sempre secondo l’Istat le vittime assidue di soprusi, quindi le vittime dei bulli, sono il 23% degli 11-17enni nel Nord del paese. Mentre tra i ragazzi utilizzatori di cellulare e/o Internet, il 5,9% denuncia di avere subìto ripetutamente azioni vessatorie tramite sms, e-mail, chat o sui social network. Le ragazze sono più di frequente vittime di cyberbullismo (7,1% contro il 4,6% dei ragazzi). Ai migliaia di giovani sottoposti al fenomeno del Cyber-Bullismo vanno aggiunti i milioni di giovani vittime di giochi autolesionisti che vanno diffondendosi in maniera virale sulla rete (Blue whale challenge o l’hot water challenge, giusto per citarne un paio). Giochi in cui i visualizzandi vengono sfidati a prendere parte a delle cosiddette “challenge” (appunto sfide) nelle quali si rischia la propria incolumità anche in modo grave. C’è chi si lancia dai tetti in bicicletta o con gli sci, chi effettua manovre spericolate con mezzi motorizzati e non, chi si sfida a mangiare chili, paprika, cannella o altre spezie potenti  fino a sentirsi male, chi si sfida a restare in equilibrio su travi, tralicci a decine di metri, su treni in corsa attaccati con ventose e la lista è ancora lunga. E’ importante che la gente sappia che i figli navigando anche su siti apparentementi innoqui come Youtube possono risultare spettatori non solo delle bravate dei loro compagni più devianti ma di tutti i ragazzi devianti del mondo che caricano le loro bravate sul web facendole sembrare ancor più eccitanti per il semplice fatto di aver raggiunto milioni di visualizzazioni.

Patologie moderne

Recenti studi evidenziano come esista un collegamento tra l’utilizzo massivo di social media e la depressione.

Stanno emergendo nuove patologie collegate alle nuove tecnologie come ad esempio il “collo da smartphone” ossia una pronunciata lordosi nelle vertebre del collo che rimangono in posizione piegata sul dispositivo per un numero di ore troppo alto.

Oppure patologie derivanti dalla necessità di essere perennemente connessi: la “nomofobia”, ossia il terrore ossessivo di non essere raggiungibili. Purtroppo ci si rende conto che l’ascesa della tecnologia ha portato tanti cambiamenti positivi quanti rischi ed inefficienze.

Cosa è possibile fare?

Abbiamo visto come ci sono una serie di conseguenze negative laddove la tecnologia viene utilizzata in maniera errata e senza una sana cognizione di causa. I provvedimenti che possono essere presi al giorno d’oggi da esperti, istituzioni e privati possono essere sicuramente utili al fine di migliorare la vita delle persone, ma anche qui, bisogna stabilire chiaramente quale sia l’iter che si vuole seguire per poter vivere il rapporto con l’innovazione tecnologica in modo veramente sano ed equilibrato. Non è semplice aumentare la consapevolezza e l’etica di un intero popolo fino a quando questi sono visti come semplici acquirenti o consumatori (termini  oggettivamente svilenti delle proprietà intrinseche degli individui). Non è semplice perché in un sistema caotico è più semplice gettare l’amo e far abboccare qualche “pesce”. Più difficile invece è creare delle tendenze positive, dei circoli virtuosi che rendano le persone in grado di capire veramente i propri bisogni personali e collettivi, capire come il marketing faccia subdolamente leva su questi per vendere e come riuscire ad emanciparsi.

Ma se già adesso, all’alba di questa nuova era tecnologica computerizzata, cominciano ad apparire le prime perdite di direzione, del buon senso applicato alla vita quotidiana, come potremmo orientarci in un futuro che ci proporrà cambiamenti tecnologici a ritmi sempre meno sostenibili? Avremo sempre meno tempo per correggere i nostri errori come specie, sempre meno “margini di manovra”, sempre meno libertà di pensare, riflettere, assorbire, sperimentare, eventualmente reagire. Arriveremo forse a chiederci “dove, quando abbiamo sbagliato?”. Forse, sarebbe il caso oggi di fermarsi un minuto e chiedersi: “Qual è la nostra responsabilità come individui, nel tumultuoso mare tecnologico nel quale stiamo navigando a tutta velocità verso direzioni ancora sconosciute?”.

L’evoluzione del mercato tecnologico

Il mondo informatico, all’inizio era percepito dal “mercato di consumo” (detto consumer) come qualcosa di molto lontano, nessuno possedeva orologi, calcolatrici, telefoni o altri dispositivi digitali. Nel seguito un continuo progresso ha via via trasformato la nostra vita portando avanzamenti continui in ogni campo : nel campo della audiovisione e dello storage si è passati dalla radiotelevisione e il lettore di vinili (unici sistemi di consumo mediatico ) alla musicassetta al lettore mp3 attraverso una lunga e riccamente assortita “guerra degli standard” (cassette, minicassette, minidisk, CD, DVD, BLUERAY, mmc, sd, xd e moltissimi altri), nel frattempo nella videodiffusione, si è passati dai vecchi modelli a tubo catodico ai nuovissimi display Led, amoled, oled, retina etc passando per gli lcd e la tecnologia al plasma con qualità delle immagini sempre più elevata.

Il futuro ci riserva certamente ulteriori standard, ulteriori capacità sorprendenti rese ancora più sorprendenti da accurate e studiate strategie di marketing che ci faranno spendere cifre sempre più considerevoli per ottenere l’ultimo ritrovato tecnologico. La pervasività di tali dispositivi cambierà ulteriormente il nostro modo di comunicare e di interagire e così come siamo passati dal telefono a disco agli iphone touchscreen, dagli squilletti sui primi gsm alle gif animate su whatsapp, dalle lettere con francobollo alle email passeremo probabilmente dalle videoconferenze su skype alle telepresenze olografiche, dall’utilitaria al sistema di trasporto di massa automatizzato, dal memorizzare a fatica qualunque nozione al comprare l’ultima espansione per la memoria tramite innesti o caschetti di potenziamento celebrale ad onde elettromagnetiche.

Nel frattempo si continua a produrre, consumare e gettare immense varietà di chip, schede, dispositivi, che tramite le loro sigle e caratteristiche alfa-numeriche campeggiano fiere e sgargianti nei negozi e nei supermercati sbandierando qualità più o meno avveneristiche dall’unico ineluttabile destino: diventare obsolete nel giro di qualche manciata di mesi.

Caratteristiche variabili in quando a memorie, formati, velocità, potenza, si fondono e si avvicendano in una vorticosa girandola di termini specifici nella quale solo i più esperti si orientano.

Diventa difficile in questo mare distinguere i termini fuorvianti, quelli che servono a fare solo pubblicità e a far spendere un tot in più al consumatore che così si trova spesso a comprare nuovi strumenti tecnologici inutili o mal dimensionati rispetto alle loro reali esigenze prede di strategie di vendita che hanno l’unico scopo di vendere puntando sull’ignoranza.

Il paradosso della scelta

Studi sociologici e psicologici dimostrano come esista nell’attuale società un problema molto diffuso ma non altrettanto conosciuto: Il paradosso della scelta. Barry Schwartz, psicologo dell’università della Pennsilvenia spiega questo paradosso in un bellissimo discorso su TED (social network di diffusione culturale molto popolare).

Lo psicologo sostiene che in primo luogo avere troppa scelta porta alla paralisi. Avere troppe opzioni comporta spesso quello che definiremmo semplicemente “l’imbarazzo della scelta”. Continua sostenendo che anche dopo aver superato questo stadio, una volta compiuta la scelta, magari un ottima scelta, la soddisfazione sarebbe stata molto maggiore avendo a disposizione un numero minore di scelte, infatti più scelte possibili abbiamo più la nostra aspettativa sale perchè ci domandiamo inconsciamente: “infondo tra tante opzioni ci sarà sicuramente quella perfetta per me giusto?”…la risposta potrebbe essere si o no, ma incrementa semplicemente il nostro stress nel dover scegliere, incrementa la nostra frustrazione nel momento in cui ciò che compriamo rivela dei difetti (lasciando spazio al dubbio: e se avessi comprato quell’altra cosa?). Esiste infatti, quello che gli economisti chiamano “costo-opportunità” ossia, il valore che diamo alle cose dipende da quello con cui le confrontiamo. In un mercato in cui la concorrenza è elevata ed ogni prodotto presenta punti di forza e punti di debolezza. Comprare oggi una cosa per alcuni punti di forza e trovarsi a confrontare più o meno inconsciamente le debolezze che presenta con i punti di forza di altre opportunità rappresenta un terribile stress. Un po’ come quando si compra la migliore macchina sul mercato (in rapporto al nostro portafoglio) che ha praticamente tutte le caratteristiche di cui ho bisogno ma poi si nota come magari con una piccola differenza di prezzo avrei potuto avere quella particolare caratteristica, alla quale magari al momento dell’acquisto non si è dato molto peso, di cui invece l’altra opzione era dotata ( ad esempio i cerchi in lega o il lettore mp3).

Le figure di riferimento

Visto gli scenari precedenti, ci si rende pur conto di quanto sia necessario che nel tempo si formino persone e gruppi di persone che contribuiscano a livello sociale all’apporto di conoscenze e concetti su base etica. Tecnologhi, tecnici, sociologi, psicologi, o semplici amatori della tecnologia, ognuno nel suo campo dovrebbe contribuire con la sua conoscenze a direzionare le scelte delle persone meno esperte e consapevoli fornendo non solo consigli corretti basati sul buon senso e sull’etica, ma un valore aggiunto dal forte connotato umano: una consapevolezza della tecnologia, delle sue modalità di utilizzo, dei rischi connessi ad un cattivo utilizzo e dei metodi per evitare di rimanerne vittima.

Una volta un tecnico esperto poteva ad esempio essere il vicino di casa, o per i più fortunati un parente vicino, oggi i tecnici esperti sono principalmente formati dalle grandi catene di distribuzione (Euronics, Mediaworld etc.) e da una rete di piccoli negozi di assistenza e riparazione molti dei quali possiedono un sito web o una pagina Facebook per i loro affari. Nessuno di loro però si occupa di fornire ai clienti una panoramica della tecnologia che acquistano che sia improntata sul concetto di consapevolezza tecnologica, dei rischi e dei benefici che umanamente possono essere acquistati insieme al dispositivo, questo viene lasciato stabilire all’acquirente.

PC-go: mentorship tecnologica e assistenza

PC-go: mentorship tecnologica e non solo

PC-go svolge un’azione mirata alla creazione di valore per le persone coniugando gli aspetti tecnico-pratici con gli aspetti umani e sociali che nell’era dell’informazione ci troviamo a vivere.
La tecnologia è un ecosistema, il nostro compito è di creare un nido dove le persona possano sentirsi protette, a proprio agio.
Nell’ottica di perseguire questo obiettivo abbiamo deciso di offrire una molteplicità di sevizi riuniti attorno ai concetti di mentorship tecnologica e di etica tecnologica.

Uno dei corsi che proponiamo di occupa di approfondire gli aspetti legati alla tecnologia ed al cittadino esortandolo a rendersi parte attivamente critica nel processo di cambiamento globale al quale assistiamo. Vengono toccati gli aspetti rilevanti della storia del web e dell’informatica ed introdotte le problematiche fondamentali dell’attuale panorama tecnologico. Il programma del corso è scaricabile tramite Programma – Consapevolezza tecnologica.

Splash screen di Trello

Trello – come organizzare il tempo semplicemente

Se sei una persona dinamica e piena di impegni, con un’infinita varietà di idee, progetti e persone da organizzare? Se è così, Trello potrebbe essere l’applicazione che fa al caso tuo!

Probabilmente ti sarai già domandato come organizzarti in maniera più efficace o come coordinarti con gli altri colleghi del tuo team più semplicemente. Al crescere degli impegni e delle cose da ricordare, infatti, applicazioni come WhatsApp, o le email così come i post-it sulla scrivania ed i nodi al fazzoletto si dimostrano strumenti assolutamente insufficienti! Per facilitarti nell’organizzazione del tuo lavoro (o del tuo team) ti consigliamo assolutamente di provare quest’applicazione Web! Con Trello (che potete provare cliccando qui) hai a disposizione un semplice pannello virtuale con cui gestire delle cosiddette PostCard (l’equivalente dei famosissimi Post-it di carta). In tutto abbiamo tre livelli di raggruppamento. Le cards sono raggruppate in Liste che a loro volta sono raggruppate in Boards (o lavagne). Possiamo creare quante lavagne vogliamo e sincronizzarle sui dispositivi mobili in tempo reale così come condividerle con amici o componenti del team di lavoro. Possiamo creare delle liste (checklists) con caselle di spunta per creare liste della spesa o liste di qualunque altro tipo.

Una schermata di trello
Una schermata di trello

Possiamo trascinarle facilmente e riordinarle per avere sempre una visione chiara dei processi aziendali o delle attività familiari. Le liste possono essere rinominate e spostate come vogliamo, così come il loro contenuto lasciandoci la piena libertà organizzativa possibile pur mantenendo tutto molto semplice e pulito (come è possibile notare dall’immagine). Inoltre con i componenti del team sarà possibile commentare le PostCard proprio come si farebbe con un post di Facebook o di un Blog, sarà possibile uplodare files di qualunque tipo fino a 10 Mega (delle immagini verranno visualizzate direttamente le anteprime per comodità) e sarà possibile assegnare delle scadenze ai compiti o agli eventi. Tutte le variazioni potranno essere notificate via mail se scegliamo di seguire una card. Sarà anche possibile assegnare delle etichette colorate (tag) categorizzando i post, in maniera tale da poterli distinguere con un solo sguardo. Sarà anche possibile far scadere una card in maniera tale da tenere sotto controllo anche scadenze di qualunque tipo (bollette, compiti assegnabili etc.).

Una volta provato Trello risulta uno strumento di gestione del tempo quasi indispensabile per professionisti, imprese nascenti o anche componenti di progetti di piccole dimensioni.

 

Arduino – la piattaforma elettronica Opensource

Arduino è una piattaforma elettronica opensource basata su un sistema semplificato di gestione hardware e software.

Ma cosa vuol dire tutto questo esattamente? Opensource significa che gli schemi che descrivono la piattaforma sono liberamente consultabili e replicabili. Chiunque, infatti, può creare una scheda Arduino per conto proprio comprando i giusti componenti elettronici ed assemblandoli. Ma che significa in realtà Arduino?

Il nome richiama quello del bar di Ivrea dove si riunivano i fondatori del progetto che si rifà al Re d’Italia Arduino d’Ivrea attorno all’anno mille. Questi signori, stufi di affrontare ogni volta mille problematiche nella prototipazione e lo sviluppo di hardware e di conformarsi a mille standard e sistemi di programmazione differenti si mettono e decidono di creare una nuova scheda elettronica estremamente versatile, scelgono di rilasciare gli schematici in maniera libera in modo che chiunque potesse eventualmente replicarla. Nel farlo scelgono di dotarla di un linguaggio di programmazione che si rifà al già molto linguaggio di programmazione C . Un linguaggio di alto livello così diffuso che avrebbe reso la piattaforma da subito utilizzabile all’enorme pubblico di smanettoni, programmatori e amanti dellatecnologia fino a quel momento penalizzati dall’elevata difficoltà di programmazione dei sistemi embedded per varie cause tra cui proprio la molteplicità di linguaggi con cui tali dispositivi potevano essere programmati.

Arduino dunque, abbatte le barriere all’ingresso che il mondo dell’elettronica sperimentava rispetto all’informatica e dischiude un universo di possibilità al mondo dei Makers moderni che amano cimentarsi in sperimentazione e prototipazione di dispositivi elettronici a prezzi economicamente vantaggiosi.

Con Arduino è possibile, in modo estremamente rapido, sviluppare dispositivi  che integrino oltre ai classici componenti elettronici anche sensori, servomeccanismi e dispositivi di comunicazione.

Il core della piattaforma Arduino è senza dubbio il processore AVR a 8 bit prodotto da Atmel (AVR è il nome in codice di una serie di microcontrollori RISC, acronimo di Reduced Instruction Set Computer). Fino ad oggi sono state prodotte 16 versioni di hardware, le più diffuse delle quali sono l’Arduino Uno, Arduino Mini, Arduino Nano e Arduino Mega. La velocità è di 16Mhz, anche se ne abbiamo una versione a soli 8 Mhz (la LilyPad). Le varie versioni di arduino differiscono principalmente per il numero di

I programmi per Arduino sono chiamati sketch
Esempio di sketch scritto in wiring per Arduino

connessioni, la dimensione delle componenti, il tipo di interfacce e la quantità di memoria (andiamo dai 10K dell’Arduino Diecimila ai 512K dell’Arduino 2)

Ogni Arduino è collegabile al proprio computer tramite un semplice cavo USB, una volta riconosciuto il dispositivo possiamo programmarlo come vogliamo, per farlo utilizziamo un piccolo ambiente di sviluppo utile allo scopo. Per programmare il nostro sketch (nome dato ai programmi scritti per Arduino) abbiamo

a disposizione numerose librerie grazie alle quali possiamo far interagire la scheda con altri dispositivi ( ad esempio tastiere, mouse, dispositivi bluetooth, wifi etc.). Il linguaggio di programmazione utilizzato per programmare la piattaforma vera e propria si chiama Wiring. E’ basato su Processing, un linguaggio che consente di sviluppare giochi, animazioni e contenuti interattivi, molto usato in campo artistico.

Leap Motion: VR a mani nude

Leap Motion – la realtà virtuale a mani nude

Se vi è piaciuto il film “Minority Report”, dove un fantastico Tom Cruise utilizzava con agilità una lavagna luminosa tramite i gesti della mano, ecco, sappiate che oggi tutto questo è possibile con una spesa di poco inferiore ai 100€. Vi sto parlando di Leap Motion, un dispositivo unico nel suo genere che vi farà muovere finestre, spostare oggetti tridimensionali e immergere nella realtà virtuale in modo considerevolmente fluido e soprattutto figo!

Leap motion è un dispositivo hardware messo sul mercato dalla californiana Leap Motion Inc e acquistabile su Amazon per una sessantina di dollari (si arriva a 100 € se consideriamo le spese di spedizione e sdoganamento ).
Si tratta di uno scanner ad infrarossi a basso costo unito ad un software brevettato di analisi e tracciamento specializzato nel catturare e rappresentare in coordinate tridimensionali i movimenti delle dita, della mano e dell’avambraccio. La tecnologia di Leap Motion è stata sviluppata nel 2008 mentre il co-founder David Holz stava studiando come dottorando in matematica nell’Università del North Carolina. Nel 2011 ottengono fondi per quasi 13 milioni di dollari e nel 2013 un secondo round da 30 milioni. Nel marzo del 2014 la compagnia è riuscita a piazzare sul mercato oltre mezzo milione di unità.

Tramite il sensore Leap Motion è possibile interagire con il proprio computer in maniera del tutto innovativa e naturale.
Le funzionalità ottenibili sono molteplici: si va dall’interazione con il proprio sistema operativo, Windows o MacOS, fino all’interazione con modelli tridimensionali virtuali.
E’ stato creato uno store apposito dove gli sviluppatori possono mettere a disposizione della comunità le proprie creazioni. Tra le applicazioni degne di nota ne segnalo una molto interessante in cui è possibile pilotare una navicella spaziale con la propria mano proprio come facevamo da bambini oppure un’altra in cui è possibile scolpire un blocco di materiale virtuale con le proprie mani.
C’è la possibilità di abbinare il sensore ad un visore per realtà virtuale ed inserire all’interno del contesto virtuale le proprie mani senza più bisogno di utilizzare dei guanti cablati (come quelli del film “Il tagliaerbe” per intenderci).

Esistono inoltre una varietà di librerie e plugin (ad esempio per Unity e dispositivi Mobili) che permettono di sviluppare interessanti applicazioni mobile, di realtà aumentata e nei più disparati settori industriali dove viene fatto largo uso di interfacce a realtà virtuali tridimensionali.

Leap Motion ha stretto partnership con big players come Asus e HP che puntano a creare notebooks “all-in-one” che diano all’utente la possibilità di interagire in modo più naturale ed efficace.
La tecnologia alla base del dispositivo è molto semplice e soprattutto economica, si tratta di tre Led ad infrarossi per l’illuminazione dell’area sensibile accostati a due telecamere (sempre ad infrarossi) per la visione stereoscopica collegate al computer tramite la porta usb. Il vero motore del sistema è realizzato tramite complesse trasformate matematiche appositamente ottimizzate che si occupano di processare le immagini in tempo reale e di estrapolare le coordinate tridimensionali da porre nello spazio virtuale del computer su cui il dispositivo opera. Vengono rappresentate le coordinate e la direzione delle singole falangi della mano, così come del palmo e dell’avambraccio.
Il “cono di luce” entro cui è possibile catturare il movimento delle mani si estende orizzontalmente per circa 50-70 cm e verticalmente per circa 50 cm. La precisione con cui viene catturato e rappresentato il movimento è sorprendentemente accurata sia nel tempo che nello spazio. Parliamo di 200 frame per secondo e un errore di meno di un millimetro (0,7 millimetri per l’esattezza).

Dopo aver comprato (qui) ed effettivamente provato personalmente questo dispositivo posso sicuramente dire che possiede ottime potenzialità ma va sicuramente migliorato in alcuni suoi aspetti. Sicuramente tra gli aspetti da migliorare troviamo il raggio di azione (per ora limitato ad una relativamente piccola area oltre la quale il modello comincia a dare qualche problema). Anche l’algoritmo di riconoscimento della mano potrebbe risultare migliorato in quanto alcune posizioni della mano, in cui le dita sono poco visibili perché accavallate ( ad esempio quando la mano viene posta “di taglio”) potrebbero essere inferite in modo più accurato. C’è da considerare anche che l’uso prolungato del dispositivo costringe l’utente a tenere il braccio sollevato, sospeso a mezz’aria, il che sicuramente all’inizio può essere divertente, ma vi assicuro che finito il divertimento inizierete a soffrirne, si dovrebbero quantomeno appoggiare i gomiti sul tavolo e normalmente una corretta postura alla scrivania o al computer non lo prevede in quanto siamo usi poggiare gli avambracci per usare mouse e tastiera.

Lo strumento rimane comunque valido per tutte le attività che richiedono interazioni con modelli 3d in quanto vengono riconosciute correttamente ed efficacemente molti gesti naturali come lo swipe (nelle 4 direzioni) con una combinazione qualunque di dita, il tapping (anche questo con qualunque dito di entrambe le mani) ed il movimento circolare di dita e palmi. Viene anche riconosciuto il verso del palmo della mano, alto o basso, il che permette a livello tridimensionale di combinare delle ottime esperienze (far aprire menu, piuttosto che scatenare altre azioni). Infine vi comunico che, da sviluppatore, possono essere definite una quantità di gesti personalizzati tramite gli applicativi e dunque l’esperienza d’uso ha sicuramente molti margini di adattabilità e godibilità in futuro, specialmente se integrata con sistemi di realtà aumentata e realtà virtuale (dai Google Cardboard abbinati ai comuni smartphone Android fino ai più costosi Oculus Rift ). Infine, se siete abbastanza curiosi e smanettoni vi invito a visualizzare i video di persone che utilizzano il Leap Motion insieme ad Arduino per muovere una mano robotica!