16 settembre 2008

Come calibrare la batteria del portatile

Calibrare una batteria significa semplicemente ricaricarla fino alla capacità massima e regolare la visualizzazione accurata del livello di carica. Se il computer è nuovo o se non è stato utilizzato per un lungo periodo di tempo, l'indicatore della batteria potrebbe non visualizzare correttamente il livello di carica. Questo può avvenire perchè di "scalibra" il gas gauge, un componente elettronico utilizzato nei sistemi mobile per tenere traccia dello stato di carica della vostra batteria.


Metodo 1: Calibrazione della batteria mentre si utilizza il computer

La calibrazione della batteria richiede un ciclo di carica completa e scaricamento completo. Se durante questo ciclo di calibrazione si utilizza il computer, è necessario disabilitare le proprietà di Risparmio energia, in modo da consentire alla batteria di scaricarsi completamente. Per ricalibrare la batteria mentre si utilizza il computer, procedere come segue.

1) Collegare l'adattatore AC e far caricare il portatile finché la batteria viene caricata al 100% della capacità. Per stabilire la percentuale di alimentazione della batteria, con il portatile normalmente funzionante, fare clic con il pulsante destro sull'icona di
alimentazione nella barra delle applicazioni, quindi selezionare Apri Misuratore alimentazione . Viene visualizzato lo Stato alimentazione.

2) Quando la batteria ha raggiunto una carica pari al 100%, rimuovere il cavo dell'adattatore AC dal computer portatile.

3) Fare clic su Start/Avvio , Pannello di controllo , quindi fare clic su Visualizzazione per categorie.

4) Fare clic su Opzioni risparmio energia, Prestazioni e manutenzione, quindi fare clic su Opzioni risparmio energia.

5) Nella scheda Combinazioni risparmio energia individuare e annotare le impostazioni predefinite. Questi parametri dovranno essere ripristinati in un secondo momento.

6) Selezionare l'impostazione Sempre attivo per la voce Combinazioni risparmio energia. Selezionare quindi l'impostazione Mai per tutte le voci elencate nella colonna Alimentazione a batteria. L'impostazione Sempre attivo impedisce l'attivazione della modalità di sospensione sul portatile e consente alla batteria di scaricarsi più rapidamente.

7) Fare clic su Applica per confermare i valori inseriti e per favorire lo scaricamento completo della batteria. Durante il periodo del test il portatile funziona costantemente.

8) Far scaricare completamente la batteria finché il PC portatile non si spegne. La batteria risulta ora calibrata e il valore relativo al livello della batteria riportato dal misuratore di alimentazione risulta ora corretto.

9) Inserire l'adattatore AC e riavviare il computer.

10) Tornare alla casella di dialogo Proprietà - Opzioni risparmio energia (Fase 5) e ripristinare le opzioni di risparmio energia desiderate.

Metodo 2: calibrazione della batteria mentre non si utilizza il computer

La calibrazione della batteria richiede un ciclo di carica completa e scaricamento completo. Per ricalibrare la batteria mentre non si utilizza il computer, procedere come segue.
La ricalibrazione può richiedere da 1 a 5 ore, a seconda del grado di usura della batteria e della configurazione del computer portatile. Il PC non può essere utilizzato mentre si esegue la procedura descritta di seguito. Il completamento di tutti i passi consentirà anche di calibrare la batteria in modo che le letture dell'alimentazione siano accurate.

1) Spegnere il computer portatile.

2) Collegare l'adattatore AC al computer portatile e a una presa elettrica.

3) Caricare il computer portatile finché la spia di ricarica della batteria
non diventa verde . Ciò indica che la batteria è completamente carica.

4) Premere e rilasciare il pulsante di accensione per avviare il computer.

5) Premere più volte il tasto F8 fin quando viene visualizzato il menu di avvio avanzato Windows, selezionare l'opzione Avvio in modalità provvisoria.

6) Rimuovere il cavo dell'adattatore AC dal computer portatile.

7) Far scaricare completamente la batteria finché il PC portatile non si spegne.

8) La batteria risulta ora calibrata e il valore relativo al livello della batteria riportato dal misuratore di alimentazione risulta ora corretto.

[Fonte HP]


Queste metodologie possono essere molto utili e permettono di recuperare decine di minuti di autonomia qualora il gas gauge fosse davvero starato. In generale calibrare comunque una batteria male certo non fa. Ricordo che queste procedure possono dare buoni risultati su batterie ancora in buono stato, l'alternativa resta come sempre procurarsi una batteria nuova.

Alla prossima

08 agosto 2008

Gears of War 2 e Fable 2 in esclusiva Xbox


Come era lecito attendersi è di questi giorni l'annuncio delle date di uscita da parte di Microsoft di Gears of War 2 e Fable 2. Il primo sviluppato da Epic Games e il secondo da Lionhead Studios, entrambi hanno scelto Microsoft come loro publicher. Questa ha inevitabilmente portato alla esclusiva uscita su piattaforma Xbox dei due titoli. Il primo a vedere la luce sarà Fable 2, più precisamente il 24 Ottobre, il 7 Novembre invece sarà il giorno di Gears of War 2.

Non nascondo la delusione sul fatto che Microsoft ha reso questi due titoli, molto attesi per altro, una esclusiva Xbox. Certo le speranze sono le ultime a morire, tenuto conto che anche il primo episodio di Fable e di Gears of War uscirono solo per Xbox ma poi "portati" su Pc molti mesi dopo. Oggi lo scenario è cambiato, le console si sono fatte più "aggressive" nei confronti dei Pc e nessuna frase ufficiale è stata pronunciata in materia di porting su Pc.

Alla prossima

29 luglio 2008

Console vs Pc ed il futuro dei videogames

Molto si è parlato al recente E3 delle console in forte ascesa a scapito dei Pc nel mondo videogames. Tema di grande attualità da diversi mesi soprattutto dopo le esternazioni negative contro la pirateria da parte del CEO di Crytek (per Crysis) e del boss di Gas Powered Game (per Supreme Commander). Molti puntano il dito contro la pirateria come il grande male che allontanerebbe le software house ed i publisher dal mondo Pc verso il più sano e onesto mondo console. E' dunque la pirateria il grande cancro che sta appiedando la piattaforma Pc? E' una delle cause dico io, ma non l'unica.

Poco tempo fa è stata data poca enfasi ad un botta e risposta che ha visto coinvolti i dirigenti di Blizzard e di Microsoft. In particolare Blizzard incolpa Microsoft di prestare poca attenzione, diciamo così, al loro sistema operativo per Pc per sviluppare videogames pensando invece ad investire sempre di più sul gaming su Xbox (visto che sono produttori sia dell'hardware che del software). Blizzard pensa che sia sempre più complicato sviluppare su Pc a causa delle continue difficoltà introdotte da nuove APIs, nuovi Hardware, nuovi driver, non dimenticando che Windows è l'unico sistema operativo su Pc dove poter giocare (condizione quindi di grande monopolio). Insomma la critica è concreta: Microsoft sta facendo di tutto per dirottare i gamers dai Pc alla loro console.

Si aggiunga che se volessimo dare adito ad alcune considerazioni complottistiche che pensano che la pirateria sia un male, questo è certo, ma non per tutti. Al punto da pensare che la pirateria per le console sia una vera manna. Tutti vogliono investire sulle console perchè meno affette dal grande cancro e quindi sotto sotto la pirateria su Pc la si lascia proliferare, la si condanna certo, ma non si adottano poi rimedi seri per contrastarla. Tutti sanno che esiste, ma sembra che nessuno voglia veramente eliminarla.

Fantascienza? Fesserie? Forse sì, ma anche no. Io ho cercato un pò in rete, trovo tantissimi dati sulla pirateria su Pc ma pochissimi su console (magari mi potete aiutare voi dandomi nuovi dati). Eppure la pirateria per console esiste, chiunque segua con un minimo di attenzione questo mondo lo sa. Però per i media sembra esistere solo la pirateria per Pc.

La mia personale opinione da grande appassionato di videogame su Pc è che sicuramente la pirateria sta danneggiando la piattaforma. Che gli investitori si stanno allontanando è un dato di fatto, ma vedo anche altre cause. Cause dovute al business, al fatto che le console si sono rivelate delle macchine da soldi molto di più di quanto si aspettassero. Le console a livello hardware sono molto più semplici di un Pc. E' di fatto sempre la stessa macchina, nel senso che il sistema hardware è unico quindi è più semplice sviluppare, si incontrano meno problemi e si fanno più soldi. Il consumatore per contro paga un gioco forse di più che su un Pc ma "compra" di meno in quanto i dettagli e la performance grafiche sono decisamente inferiori.

Alla prossima

16 maggio 2008

Confronto tra stepping B2 vs B3

Sul sito di hwupgrade.it viene mostrato un interessante confronto tra Phenom X4 a stesso clock con stepping B2 e stepping B3. La differenza su molte applicazioni è semplicemente strabiliante. Fortuna che AMD al lancio dello stepping B3 si era preoccupata di dire che il bug delle verisoni B2 poteva dare problemi solo in particolari situazioni di elevato carico. Da come si vede in figura molti giochi semplicemente raddoppiano le proprie prestazioni.


L'intero articolo lo potete leggere qui

Nonostante questo robusto boost prestazionale i Phenom AMD non riescono minimamente ad inpensierire in fatto di performance i quad core Intel, come potete vedere dalla comparativa qui sotto su Crysis.



Alla prossima.

12 aprile 2008

Conosci la tua scheda video?

Quante volte ci capita di leggere articoli pieni di dati sulle gpu e di chiederci: ma la mia amata scheda video come sarà messa? Bene, oggi c'è Gpu-z. Così come il più famoso Cpu-z, Gpu-z una volta lanciato analizza rapidamente la nostra scheda video e ci riporta tutti i parametri della nostra GPU. Oltre ai parametri puramente descrittivi quali GPU name, tecnologia e memorie, riporta parametri quali fillrate, shaders e clocks.
Inoltre può essere lasciato andare in background per tenere sotto controllo temperatura gpu e clock del core e delle memorie. Ottimo per gli overclockers ma in generale per chiunque voglia avere informazioni specifiche della propria scheda video.




Qui lo potere scaricare è free.

Alla prossima.

06 aprile 2008

Pc Gaming: La Scheda Video ed il G92

Il Pc Gaming è sempre più di ieri fortemente dipendente dall'hardware sul quale si vuole far girare il nostro gioco preferito. Una delle grandi differenze tra chi gioca su Pc e chi gioca su Console è la necessità di dover conoscere l'hardware che si possiede. Giocare su console è indubbiamente più sbrigativo e meno complicato: non esiste un sistema operativo con cui litigare, non esistono driver da installare, non bisogna risolvere problemi di compatibilità tra i vari componenti elettronici e soprattutto non serve nessuna conoscenza dei "pezzi" elettronici che compongono la macchina. Oggi più che mai costruirsi una macchina da Pc Gaming è diventata una vera sfida: i competitors sono tanti, le offerte commerciali sono infinite e ubriacanti. E' necessario scegliere in modo oculato componenti come le schede madri, CPU, Memorie, Schede Video e Alimentatori. Costruire un computer senza sapere cosa si sta comprando può portare a sonore delusioni.

Cominceremo questo nostro viaggio nell'hardware per Personal Computer dal componente che per eccellenza identifica il videogiocatore su Pc: la scheda Video. Oggi giorno il 99% degli utenti indirizza la propria scelta verso i due marchi principali: Nvidia e ATi (ora AMD). Il primo che andremo ad affrontare è proprio l'ultima GPU presentata da Nvidia e che identifica l'ultimo gruppo di schede video della serie 9.


Il G92 è stato ufficialmente presentato nel Novembre 2007 equipaggiando tutta la nuova serie (o seconda serie) delle GeForce 8800 (GS, GT, GTS) e viene ripresentato anche sulle GeForce 9800 (GTX e GTX2). La complessità di questi prodotti sta nel fatto che le case produttrici con la stassa GPU commercializzano svariati modelli di schede grafiche per cercare di coprire la più ampia fetta di mercato possibile. Vengono così create soluzioni che soddisfano l'utente medio fino ai sistemi high-end. Muoversi tra le caratteristiche, parametri e livelli di performance è piuttosto complicato se non si ha una certa conoscenza di base dell'argomento. Se prendiamo come esempio le caratteristiche della 9800GTX abbiamo:

Processo produttivo: 65nm
GPU Clock: 675 MHz
Memory Size: 512MB
Memory Clock: 2,2 GHz
Memory Bus: 256-bit
SP: 128
SP clock: 1,68 MHz
ROPs: 16
Memory Bandwidth: 70,4 GB/sec
Fill Rate: 43,2 GT/sec


Grandi numeri indubbiamente, ma come possiamo utilizzarli per scegliere? Bastano solo questi per convincerci che è la scheda adatta per il nostro sistema o ne servono altri? Anticipo subito che altri parametri utili sono Consumi di potenza (Watt), Rumorosità (dB) e Temperature di lavoro. Questi valori certo non servono a quantificare la bontà della scheda video ma sono fondamentali per capire se è la scheda giusta per il nostro sistema. In particolare il consumo di potenza, in quanto questo paramentro incide sulla scelta della PSU (Power Supply) valutando con attenzione la potenza generale che può erogare (Watt) ed il valore dell'amperaggio (A) sulla linea a 12 Volt. Tutti i produttori di schede video danno i valori minimi necessari per poter usare le proprie schede.

Un utente poco esperto potrebbe essere portato a pensare che più i numeri sono alti più saranno alte le performance. Questo è sicuramente vero, ma non in senso assoluto. Per valutare i numeri bisogna conoscere l'archittettura della GPU che ci sta dietro e capire se è corretto o meno usarli come termine di paragone. Faccio un esempio per chiarire. Nella descrizione di prima SP sta per stream processor che sono sostanzialmente componenti hardware che hanno il compito di processare le istruzioni di shader unificati. Elementi molto importanti perchè sono le prime unità di calcolo della fase di rendering. Ora il G92 ne possiede 128, ma se guardiamo la GPU Ati RV670 di stream processors ne ha 320 e un GPU clock di 775 MHz contro gli 675 MHz del rivale. Senza voler parteggiare per nessuno diciamo che hanno prestazioni simili. Allora come spieghiamo una differenza così ampia di stream processors e clock? Semplice è l'architettura della GPU che è diversa e solo conoscendo questa potremmo comprendere i paramentri.


Nel caso del G92 nella figura potete vedere lo schema a blocchi dell'architettura hardware. Per chi ha dimistichezza con i processori converrà con me che siamo di fronte ad una realizzazione eccezionale. E' un sistema ad elevato parallelismo composto da un elemento principale replicato quante volte si vuole per aumentare o diminuire le performance. Ogni blocco è realizzato da 16 Stream Processors, 4 TMUs, cache indipendenti (L1 e L2) e 1 gruppo di ROPs finali. Questa architettura stravolge il contetto di pipelines a flusso di dati sequenziale del passato e grazie anche alle nuove API Microsoft adesso si parla di pipelines looping oriented riducendo il numero di stadi nella fase di rendering rendendo così ogni elemento della pipeline indipendente dall'altro, questo comporta un aumento concreto delle performance. In passato il numero di pipelines di una GPU era sinonimo di performance: più pipelines aveva maggiore era la sua capacità computazionale, oggi con questo tipo di architettura salta decisamente questo termine di paragone.

Nello schema a top-down abbiamo in alto un generico elemento denominato Host. E' in breve la CPU che fornisce lo streaming dei dati alla GPU. Questo già vi fa capire come la CPU sia un elemento importante nel processo grafico perchè non deve essere un collo di bottiglia per i dati in ingresso alla GPU, spesso si parla in questi casi di sistemi cpu-limited. Alla fine invece abbiamo il Frame Buffer (FB) che è la memoria video dove viene depositato il frame finale pronto ad essere visualizzato a video.
Gli stream processors (SP) sono unità di shader programmabili (pixel shader, vertex shadee e geometry shader). Sono una grande novità nell'ambito delle architetture di GPU. Gli shader unificati sono istruzioni dipiche delle API Dx10 ed avere unità shader programmabili significa adattare l'hardware al tipo di calcolo che si deve fase, a seconda che servano più unità pixel shader o vertex shader.
Le Unità di texture Mapping (TMU) lavorano in modo indipendente a frequenza di core e non di SP su cache L1 indipendente, hanno il compito di indirizzamento (attraverso le Texture Address Unit) e filtraggio (Texture Filtering Unit) delle texture. Sono quindi importanti nel processo di texturing e renderle efficienti significa aumentare pesantemente le performance del processo di rendering.
La fase finale del processo di rendering è demandata ai processori Raster (ROPs) e sono responsabili del parametro di Fill Rate della scheda video. Sono anch'essi molto importanti perchè compiono oparationi di Z-processing sui pixel (profondità della scena 3D) e filtraggio di Aniti Aliansing (processo molto pesante per le schede video). Anche queste lavorano in modo indipendente dal resto della catena hardware e l'architettura Nvidia necessità di un minor numero di ROPs rispetto alla concorrenza in quanto ha reso i propri Raster Processors particolarmente efficienti.


Altro aspetto importante è il processo produttivo. A parità di area è possibile costruire un numero maggiori di circuiti integrati, questo incide positivamente su diversi fattori: clock, voltaggi, consumi. Più è basso meglio è. Sul clock GPU ci siamo in parte già espressi, aumentarlo incide fortemente sulle prestazioni ma va valutato assieme all'architettura della GPU.

Ultimo aspetto è la memoria video. qui sono tre gli aspetti importanti: quantità, clock e bus memoria. La quantità di memoria video (128MB, 256MB, 512MB) è spesso usata dagli utenti come termine di paragone per le prestazioni. Niente di più sbagliato! La quantità di memoria ha un impatto pari a zero sulle performance e risulta importante solo in particolari situazioni di gioco ad elevate risoluzioni. il bus di memoria e clock delle gDDR invece sono molto importanti e determinano pesantemente la memory bandwidth. Maggiore sarà la larghezza del bus (in bit) maggiore sarà la quantità di dati riversati in memoria dalla GPU.

Queste, secondo me, sono le informazioni utili per capire il mondo delle schede video e della grafica in generale. Prendete questo post come spunto ed usate la rete per approfondire aspetti che vi interessanno. Più cose si sanno e meglio si sceglie.

Alla prossima.

10 marzo 2008

Bioshock e Gears of War: le mie impressioni.

L'inizio 2008 non è un granché dal lato FPS, certo qualcosina è uscito ma nulla di eclatante. Il nuovo Frontlines per esempio è l'unico titolo degno di nota in questo Q1 2008 e da quello che vedo totalizza punteggi medi. Ho perciò deciso di usare questo "tempo morto" (in attesa di meglio) per approfondire due titoli del 2007 molto apprezzati e messi nelle prime cinque posizioni 2007 come Best Game of the Year. Sto parlando di Bioshock e Gears of War. Non penso che abbiano bisogno di presentazione, sono molto popolari tra gli appassionati di FPS. Passo perciò senza indugi a dire la mia. Entrambi sono basati sull'Unreal engine 3.0 e son entrambi giochi multipiattaforma.

Bioshock in particolare ha ottenuto punteggi e gradimento senza precedenti, considerato dalla critica specializzata un capolavoro di innovatività e di design art, pochissime le voci contro. Io non sono della stessa opinione però, lo premetto subito. Quando inizio un gioco difficilmente tengo conto di cosa è stato scritto su di esso, resetto la mente e certo di farmi da subito una mia opiinone, se poi concorda con il resto tanto meglio, altrimenti vorrà dire che sarò uno dei tanti che non è d'accordo. Nel caso Bioshock, fin da subito ho notato un certo disagio nel giocarlo, l'unreal engine mi ha dato da subito un "bad feeling" come direbbero gli americani. Anche configurato a dettagli medi è inspiegabilmente "pesante" e ciò rende già difficile giocarci. Dannatamente pessima l'idea dei checkpoint come autosalvataggio, ma perchè non ci fanno più salvare il gioco quando vogliamo? Il primo grande problema dei giochi multipiattaforma è proprio questo. La storia è sicuramente originale, particolare, a tratti surreale, considerata dai più la vera forza del gioco ma è coinvolgente? Insomma deve essere questo il meccanismo per cui il giocatore decide di proseguire nel giocarlo. L'impressione che ho è che gli sviluppatori si siano più preoccupati di far colpo sulla critica che sull'utente finale. Level design ottimo...ok, storia sicuramente originale...ok, livello grafico sicuramente alto assicurato dell'unreal engine...ok, ma a me non mi ha coinvolto per nulla. E' questo forse l'unico grande difetto che posso imputare a questo gioco, che resta comunque un titolo di primissimo livello.

Gears of War...che dire...ha letteralmente spopolato su xbox360 al punto che un anno dopo lo hanno riproposto su piattaforma Pc. Il lavoro di porting è stato egregio, qui l'unreal engine è davvero piacevole, molto più fluido di Bioshock a parità di hardware ovviamente. Il game è un action in terza persona con dinamiche di gioco davvero divertenti, il punto di forza di GoW è proprio questo. Anche qui il level design è decisamente ispirato, con una bella rappresentazione di un pianeta terra post apocalittico, pieno di palazzi desolati e cumuli di macerie, il tutto disegnato su tonalità di colore scure e tetre. Le note dolenti trovate da parte mia su questo titolo sono diverse: il modo di affrontare i nemici esempio è abbastanza monotono e sempre uguale ciò è dovuto ad una bassissima AI dei nemici e dei nostri compagni di squadra che spesso e volentieri restano fermi nella stessa posizione anche se trivellati da colpi (in questo gioco la vera co-op è un miraggio). La storia è completamente assente, il gioco è un continuo peregrinare da una zona di battaglia all'altra senza un apparente filo conduttore. La monotonia dei combattimenti viene spezzata ogni tanto dai boss di fine livello decisamente più grossi che furbi. L'interazione con l'ambiente è limitata alla sola possibilità di usare muri, pareti e pezzi di roccia come riparo, tutto il resto è statico lì per la sola gioia degli occhi.

Entrambi i titoli insomma hanno difetti tali che dal mio punto di vista li fanno scendere in classifica dietro a CoD4, Crysis e Half Life 2, ma siamo comunque ad livello decisamente alto e vale la pena giocarli perchè avercene di titoli così, ma se uno vuole cercare il pelo nell'uovo qualcosa da limare c'è sempre...


Alla prossima.



16 gennaio 2008

Secondo Crytek Crysis non è pesante

In questo mese di gennaio povero di uscite di rilievo è sempre Crysis a tenere banco. Questa volta per voce del suo boss supremo Ceval Yerli che difende la propria creatura dal giudizio di molti che gli imputano di essere troppo peso graficamente.

Cevat risponde: "Penso che ci sia un aspetto importante che molti videogiocatori si sono lasciati sfuggire, ovvero che abbiamo progettato le impostazioni medie per avere un titolo giocabile e con aspetto gradevole. Le nostre impostazioni medie dovrebbero permettere al 70% dei sistemi di far andare Crysis alla grande.
Le nostre impostazioni High sono per sistemi veramente di fascia alta. Le impostazioni Very High sono riservate ai PC più esclusivi. Penso che dobbiamo continuare ad educare i videogiocatori sulle nostre impostazioni. Ripeto quello che abbiamo detto da tempo: Crysis è bello a vedersi e va bene con le impostazioni medie e alte su sistemi che hanno 2-3 anni
".

Lascio a voi il commento a questa affermazione...