Galaxy Note 3: 5.68 pollici, 3GB di RAM e batteria da 3200mAh | Ecco tutte le caratteristiche ufficiose!

12 Agosto 2013 256


immagine concept

Sembra proprio un inizio settimana all'insegna del Galaxy Note 3. Dopo le informazioni delle scorse ore, ecco arrivare da una fonte attendibile, la presunta scheda tecnica del nuovo Note di terza generazione. Le versioni, come molti avranno immaginato, saranno due: una con il nuovo octa 5420 e una con la CPU Qualcomm per i mercati Europei e Americani. Di seguito ecco tutti i dettagli:

DISPLAY

  • SM-N900: 5.68 inch Full HD Super AMOLED (1920 x 1080) display
  • SM-N9005: 5.68 inch Full HD Super AMOLED (1920 x 1080) display

CPU

  • SM-N900: 1.8GHz Octa-core Exynos 5420
  • SM-N9005: CPU UNCONFIRMED (Snapgragon 800 2.3GHz)

GPU

  • SM-N900: ARM Mali-T628 MP6
  • SM-N9005: GPU UNCONFIRMED (Adreno 330)

RAM

  • SM-N900: RAM UNCONFIRMED
  • SM-N9005: 3GB LPDDR3 RAM

CAMERA

  • SM-N900: 13 Megapixel with Optical Image Stabilisation
  • SM-N9005: 13 Megapixel with Optical Image Stabilisation

LTE CONNECTIVITY

  • SM-N900: No
  • SM-N9005: Yes

STORAGE *

  • SM-N900: 16/32/64GB User memory
Samsung Galaxy Note 3 è disponibile online da Amazon Marketplace a 179 euro. Per vedere le altre 3 offerte clicca qui.
(aggiornamento del 08 agosto 2022, ore 07:27)

256

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
talme94

O l'iphone dura poco semplicemente perchè ha una batteria ridicola?

talme94

non è il vero norullo -.-"

Lander

non è, secondo me, un problema di quantità ma di densità.

Lander

speravo 3600 di batteria però cmq così non è male. Sinceramente lo preferisco (e non di poco) ad S4.

Michael Ferrara

chi ti ha esorcizzato??
tu che sei un super sostenitore di apple

Lorkhan

Posso cercare tutte le info che vuoi,resta il fatto che i pixel del super amoled,sono soggetti ad un degrado che gli lcd non hanno...

Lucaaa

ah madonna, dura farsi fare la paternale da uno che probabilmente neanche sapeva cos'era l'MPDECISION.

chissà chi t'ha fatto il lavaggio del cervello. si vede palesemente che non hai la ben che minima idea di come sia fatta una cpu, ma sopratutto, di cosa siano composti i due SoC.
Sei paragonabile al classico BMW ista che crede che le BMW siano meglio perchè tutti le comprano, e poi guardano una 370z (la mia), dicono : " ma di che marca è? "
"nissan"... : "ah cinese, costata poco allora"

eggià... chissà che direbbero delle gt-r

ecco, insomma, è chiaro che tu NON sei obiettivo, anche perchè ti mancano delle grosse nozioni tecniche in materia, e, appunto, parli esclusivamente per marketing

Io non ti so dire il motivo per cui l'abbiano rilasciato in america e corea, ti posso dire che, cose trovate su XDA da modder esperti di kernel, il 5410 HA UN BACO NELLA INTERCONNESSIONE CORELINK, il che crea un piccolissimo lag nel passaggio dei dati..
La cosa era RISAPUTA ANCORA IN FASE DI PROGETTAZIONE, e li nulla ci piove, non ci puoi fare nulla, è un difetto nel chip, nella progettazione dei transistors

con il 5420 hanno risolto quel baco, portandolo ad UN MASSIMO DI 20.000 CICLI per un passaggio completo dei dati, ergo, a 1ghz ci vogliono 20ms per fare il passaggio.. un refresh di un governor medio è di 50 ms.. ah.. 20ms massimo..

ecco uno dei motivi per cui il 5410 non è famoso, mentre del 5420 lo si trova già su youtube

ma, questa è teoria, in pratica, su youtube ci sono i test di apertura app con qualcomm vs exynos.. e il 5410 buggato vince quasi sempre sul qualcomm, e la cosa è più o meno normale.. ma comunque la differenza è minima..

qualcomm crea delle cpu stupende, e il sistema di asincronismo voltaggio è geniale, SE NON FOSSE GESTITO DA ONDEMAND + MPDECISION.. e se vuoi ti spiego come funziona la cosa, visto che ho fatto 2 tweak ai governor di sensation e oneX (anche se l'ultimo ha tegra, la logica è sempre quella)

PURTROPPO, tutti i produttori prediligono ondemand, che è un governor che, raggiunto upthreshold, tende a maxfreq, questo per avere sempre e comunque il massimo delle prestazioni disponibili..
l'HOTPLUG DI MPDECISION ha il maxfreq nel suo dna, è proprio scritto nello script, che trovi in

/system/bin/

la cosa si presenta in questo modo:

1) core0 va in maxfreq
2) core1 si attiva in maxfreq
3) dopo sampling rate (50ms) se upthreshold + down differential è maggiore della media del carico effettivo, si abbassa di uno step (un conservative al contrario)
4) i core iniziano ad abbassarsi pian piano

risultate? anche se il carico necessita di un 10% della cpu, questa va in maxfreq, per poi calare fino al necessario, tutto per preservare le prestazioni istantanee, vanificando il vantaggio dell'asincronismo

un ottimo uso dell'asincronismo sta nel tenere sempre attivi i core, visto che, linux (kernel) lavora meglio se i core sono sempre attivi, e quindi, basterebbe compilare uno script (che ho fatto e che so fare) che tenga attivi 2 core minimi, gli altri 2 li attiva in automatico al raggiungimento della query, e che ne tenga attivo uno (in deep sleep) a schermo spento..

peccato MPDECISION sia uno script senza sorgenti, e ammesso che tu non legga l'assembly come le parole verticali su matrix, è impossibile fare sta cosa, e quindi bisogna ricorrere ad un governor con hotplug, sempre che ci sia qualcuno in grado di compilarlo (c++) con i richiami al driver di qualcomm, che generalmente non ha i sorgenti, quindi dovresti fare un reverse engineering, tutto per tentare di migliorare le cose..

al contrario, l'exynos big.little sfrutta una tecnologia inventata da intel nel 2008, il power gating, ovvero, le aree interne del chip son attivabili tramite dei mosfet specifici, e queste vengono disattivate se non in uso..

qual'è la differenza? che l'hotplug negli exynos NON esiste, perchè, l'hotplug spegne tutto, cache compresa, e ad ogni hotplug linux ha come un sussulto, perchè si trova con un core in più, senza saperlo, così, da un momento all'altro, core in più

negli exynos big.little SI ALIMENTANO SOLO LE AREE VERAMENTE IN USO, questo permette al kernel si avere sempre a disposizione tutti i core, e il sistema di risparmio energetico non è più software, ma hardware, è il chip stesso che si arrangia, come succede per il turbo mode sugli intel (vengono spenti i core per far fare overclock al primo)

la cosa migliora l'efficienza multitasking di android, mantiene una frequenza più bassa (se il governor non è il classico ondemand), e sopratutto, risparmia energia, sempre

ecco perchè mi piace così tanto exynos.. perchè è innovativo, e non devo più divantare scemo per compilare codice ovunque per riuscire a trarre qualcosa di decente da un hotplug!

detto ciò, credo d'aver dimostrato che io le cose le so, tu potrai comprare quello che vuoi, ricorda comunque che i qualcomm hanno LTE di base, e che la frequenza è più alta, quindi, l'acquirente medio ignorante vede LTE + frequenza elevata e da per scontato che sia migliore, senza neanche sapere che l'altro chip ha sistemi tecnologici innovativi che comunque funzionano molto meglio per la logica di base di linux

AH, NOTIZIONA, LINUS (PADRE DI LINUX) STA SCRIVENDO IL CODICE SORGENTE NATIVO PER BIG.LITTLE, ERGO, LINUS STESSO APPREZZA QUESTO SISTEMA

ah, ultima cosa, dicevi di sistemi diversi, si, l'MP, ovvero, quando linus riuscirà a far capire al kernel linux l'architettura del core, il kernel stesso potrà demaniare il task limitato sui core A7 e il task pesante sui core A15.. però, il kernel DEVE riuscire a riconoscere le archittture dei core

questo ne limiterà quei 20.000 cicli persi per spostare i dati fra le cache, visto che non vi sarà nulla da spostare

e il power gating si assicurerà di spegnere completamente i core non effettivamente in uso, tutto passivamente

ecco la verità

per il resto, la tecnologia è parecchio avanzata e non è così facile, anche perchè, è tutto su lato hardware, via software puoi regolare poco nulla

Lucaaa

i consumi sul lato hardware sono sempre diminuiti a parità di prestazioni.in più i telefoni hanno allungato la loro durata.. con hd2 facevo 2h di schermo acceso.. con sensation 3h30 con onex 4h e con note2 8h

Darkat

"Tu piuttosto, puoi dire tutte le cazz che vuoi, la realtà é ben diversa dalla tua fantasia"
Parlavi di bambini? ...
I core vanno a maxfreq? nel krait? ma che diavolo dici?
L'Octa core è stato studiato da Samsung per mesi, l'architettura big.Little non è di loro proprietà, avevanbo avuto tutto il tempo di mandarla avanti, quella che hanno presentato non è una tecnologia in beta o in sperimentazione, altrimenti a Samsung sarebbero del tutti idioti a lanciarla su mercati importanti come quello interno o nel mercato americano e non credo.
L'Exynos, in questa fase, si è dimostrato fallimentare, l'architettura big.Little è solo marketing, di fatto non risolve per nulla i problemi dei consumi degli a15, e questo è stato palesato dal fatto che tutti i processori big.Little usciti (non li ha presentati solo Samsung) verranno a breve sostituiti da altre architetture octa core (su cui anche Samsung sta lavorando).
Big.Little è solo un modo per aggirare il problema dei consumi senza risolverlo, il risultato definitivo è simile alla soluzione del tegra: i consumi si contengono finchè non vengono avviate applicazioni pesanti, a quel punto la batteria finisce in un'istante. Qualcomm ha lavorato duramente per rendere i consumi del krait il più bassi possibile con prestazioni al livello degli a15 pur non essendolo (e questa è già una dimostrazione del buon lavoro fatto).
L'anno scorso nessuno adottò le soluzioni Qualcomm, i principali top avevano Exynos e Tegra, e sappiamo tutti come è andata. La verità, dei fatti e non delle mie fantasie, è che Qualcomm ha presentato quest'anno un prodotto migliore, vincente.
Poi per te l'Exynos sarà migliore, ma Samsung ha deciso che per i suoi modelli top gamma la soluzione migliore è lo Snapdragon 600/800, forse in Corea soffrono delle mie stesse fantasie.

irondevil

metterle dove non vanno messe...adesso siamo passati all'italiano e alla corretta punteggiatura. Comunque vediamo se sintetizzando una risposta ,concreta e pertinente, riesco ad averla a ciò che già ti ho scritto.
Io mi lamentavo dei consumi e lato hw ho detto che nello scaling si potrebbe pensare a ridurre il fattore potenza e ovviamente non guadagnarne molto in prestazioni. Quindi in questo si può sapere cosa c'è di sbagliato? (giusto per meglio chiarire quando parlo di low power scaling intendo uno scalamento a frequenza costante o similare)ti prego di rispondere solo relativamente a questo per non dilungarci in cose poco utili.

Lucaaa

le virgole, queste sconosciute.. veramente io ho scritto i vari motivi, se non sai leggere non é colpa mia

irondevil

è dall inizio dei commenti hai pensato più a pavoneggiarti e dare
giudizi ad altri anzichè motivare le cose che secondo non erano
corrette nelle risposte altrui è da due commenti fa che te l ho detto ma
hai preferito proseguire sulla stessa strada....non conoscere una cosa è normale ma dire che è sbagliata senza apportare motivazioni è molto peggio

Lucaaa

Offendermi? Che siamo bambini?

Ascolta.. sarà che a me il benchmark non é mai interessato, se non per una numerazione pro forma, tanto si sa se un hardware é potente o meno..

Esempio.. il core i5 2500k é sicuramente un mostro. E non ho mai visto un suo benchmark..

Tu piuttosto, dai per scontato che exynos sarà fallimentare, mah, é uscito un modello solo, il 5410, il quale é stato commercializzato solo in america e corea per un motivo, é un chip di test..

I consumi abnormi? Dove li avresti visti? Te li sarai sognati, visto che su XDA nei thread CI SONO GLI SCREENSHOT CON RELATIVI VALORI.. e spesso e volentieri supera o in ore di utilizzo l's4 qualcomm..

Ora, come ho sempre detto, la tecnologia nuova applicata ai nuovi exynos éun vantaggio per linux, e non parlo del sistema big little, ma del power gating con correlativa cancellazione del sistema hotplug..

ma poi, finché tutti quanti utilizzeranno i qualcomm con ondemand + mpdecision, si vanificherà SEMPRE il vantaggio dell'asincronismo core.. ergo.. non serve a na mazza quell'asincronismo se tanto tutti i core vanno sempre a maxfreq

Tu piuttosto, puoi dire tutte le cazz che vuoi, la realtà é ben diversa dalla tua fantasia

Poi, ben venga, ognuno é libero di pensarla come vuole, però é dura cercare di convincere gli altri che l'acqua non é trasparente

Lucaaa

Sei bravo a blaterare del nulla ricopiando le frasi degli altri

Grandissima proprensione alla nullafacenza!

Darkat

Il fatto che l'Octa giri a frequenze più basse non è un caso, i core a15 che sfrutta consumano come una centrale nucleare, il fatto che diano benchmark più alti non significa che nell'uso quotidiano diano più fluidità, di fatto in tutti i confronti fatti la versione octa rimane un filino meno fluida della versione s600 su s4. La scelta di samsung di non affidare l'exynos alla versione internazionale non è legata a motivi di produzione, suvvia, Samsung che non riesce a prevedere e pagare volumi di qualcosa, in questo penso che sia Leader indiscussa. La società ha scelto di usare quella che al momento è l'opzione migliore, tenendo in casa la propria soluzione.
Poi l'exynos può essre anche più potente e tutto quello che volete, ma se si scalda di più, consuma di più, da meno fluidità del concorrente, la potenza in eccesso non viene sfruttata in nessuna occasione, perchè mai sarebbe preferibile la versione exynos? Per dire io ce l'ho più lungo nei benchmark? (citando il simpaticone che mi ha risposto sopra)

Darkat

Quanta presunzione in poche righe...
I Benchmark non li ho tirati io in ballo (si faceva riferimento a questi prima). I Benchmark sono falsificati comunque perchè dovrebbero dare un ideale di come un programma potrebbe girare sull'hardware, se tu però sui benchmark alzi il clock però poi questo non si alza quando stai sfruttando un'applicazione pesante il bench ti restituisce un risultato falsato, perchè il clock si è spinto oltre la sua solita soglia nell'utilizzo quotidiano.
Tutte il resto sull'ottimizzazione dei Qualcomm...per favore, non diciamo idiozie. Credo che l'ottimizzazione dei vari soc sia sotto gli occhi di tutti.
Di fatto senza fare tanti giochi di parole vediamo i fatti come stanno: Samsung ha scelto di usare i processori Qualcomm per la sua linea top di gamma nella version internazionale e tenere l'exynos relegato in Corea. Questo non è certamente per una difficoltà produttiva, visto potenziale e la disponibilità economica della società, è una scelta, dovuta evidentemente a dover scegliere quello che al momento è il risultato migliore che si può ottenere, cioè con i proccessori Qualcomm. E nel frattempo mettere in prova gli Exynos in casa e svilupparli meglio. Inoltre la soluzione big.Little si è dimostrata fallimentare come da programma visti i consumi che produce sotto stress, decisamente sopra la norma.
Puoi parlare e dire tutto quello che vuoi, e offerndermi se altro non sai fare, ma i fatti per il momento valgono molto più delle parole e ti danno decisamente torto.

irondevil

hahaha era per arrivare a questo a ho capito adesso....nei miei commenti volevo solo dire che lato hardware puoi prendere diverse decisioni quando fai lo scaling ma alla fine siamo giunti a "Come ho scritto nel commento di guest, cellulari a cui ho migliorato l'autonomia tramite mod xda.. 2
Cellulari a cui tu hai migliorato l'autonomia.. 0"

Lucaaa

Come ho scritto nel commento di guest, cellulari a cui ho migliorato l'autonomia tramite mod xda.. 2
Cellulari a cui tu hai migliorato l'autonomia.. 0

A differenza tua, io non mi limito a parlare, do quello che dico, perché éda anni che lo faccio

irondevil

l'importante è che lo dici tu :D questo conferma l utilità dei tuoi commenti

Lucaaa

se i miei commenti hanno poco senso, dovresti tornare alle elementari, per imparare a leggere

irondevil

tu scriverai pure commenti lunghissimi ma di senso ne hanno poco ,più che chiacchiere generali giustifica tecnicamente quello che dici....e poi stesso tu dici che nuova architettura nuovo processo produttivo consumi minori allora dove è che non ti quadrava il discorso? ovvio che ti ho anche scritto che usando un low power scaling otterrai un abbattimento dei consumi senza incrementare troppo le prestazioni...ma solo tu hai messo in mezzo il fatto che qui qualcuno cerchi super prestazioni senza consumare di più ,io questo non l ho detto in nessun commento precedente

Lucaaa

Vuoi che te lo spieghi veramente?
É lunga se non hai una base in android

Comunque.. s2 usa pegasusQ.. s4 usa ondemand + mpdecision

Questo é uno dei motivi.. l'altro.. s4 scatta praticamente solo nel briwser.. ma é anche vero che s4 exynos octa non scatta proprio..

Come dico sempre.. i qualcomm son ottimi chip, ma, vengono gestiti da un governor ridicolo con una gestione hotplug script ancora più ridicola..

Gente brava nel coding del kernel android ha ribattezzato MPDECISION as Make Poor DECISION

Lucaaa

Device a cui ho aumentato la durata con mod messa su xda, 2, device che hai aumentato do durata.. 0

Chi ha ragione, chi ha torto? :D

P.s. per me ignorante non é dispregiativo, non serve entrare come guest per ridire le stesse identiche cose con una mezza offesa

Io sono indubbiamente ignorante in molte categorie, sopratutto in storia, e palesemente lo ammetto! :D

ws

Allora come mai il mio vecchio s2 non laggava e il mio attuale s4 non ha mai laggato?
Io lo ho preso a fine giugno, forse nel sistema che s4 aveva al lancio laggava, ma lo avranno risolto con un aggiornamento pochi giorni dopo.
detto questo, non continuiamo a dire che s4 lagga perché non é assolutamente vero.

Lucaaa

Bene.. allora visto che vuoi fare la parte del saccente, prendi un cortexA7, scrivici un sistema operativo che abbia tutto fluido e che possa fare le stesse cose che fa un pc desktop che consuma 400Watt

:D

No perché qua tutti pretendono d'avere facebook che fila come un caccia, e tutti si lamentano che i device durino troppo poco.. ripeto.. iphone non é mai srmtato leader in quanto a benchmark.. ma é sempre stato fluido.. ed é uno dei device con batteria che permette di fare meno minutaggio a display acceso rispetto alla concorrenza..

Perché? Semplice, vuoi le prestazioni? Paghi con i consumi..

Eeeh, occhio che, é una gran balla quella dell'efficienza energetica.. una architettura nuova ha SEMPRE una efficienza energetica migliore.. ovvero.. a parità di calcolo consumerà sempre meno!

Poi vabbé, se sei convinto così ben venga, vedremo quando inventeraiun motore a benzina che fa 1000cv e 1500Nm di coppia consumando 1 litro di benzina ogni 100km in misto :D

:D

Imperium

samsung apps è un vero vantaggio, almeno su note10 devo aver risparmiato almeno 10€ in applicazioni... perchè lì sono gratis. S translator mai usato xD ma può essere utile... s voice fa schifo e chat on praticamente non lo usa nessuno.

giorgio085

allora come mai S4 lagga ed S2 non lagga?

giorgio085

voglio solo fare una considerazione sul display! è vero che il Note 2 ha uno schermo amoled rgb (dunque compensa in parte le carenze dei vari pentile) ma la differenza con un full hd, nel momento in cui li metti accanto si nota. Non macroscopica ma si nota... soprattutto nei caratteri e nelle immagini curvilinee, nell'hd si vede cmq un minimo di "seghettatura" del tutto assente con il full hd.

giorgio085

direi piuttosto che spesso l'esperienza samsung ha 2 cuori, quello google, necessario... e quello samsung, oggettivamente trascurabile! Samsung apps, S voice, Chaton, S translator ecc ecc... sono applicazioni e servizi doppioni che non servono a nulla, google li offre già.

DarkHorse

i core stanno diventando come i megapixel delle fotocamere... argomento di vendita... cmq se le specifiche verranno mantenute lo vedo bene e ammetto che un po' di gola me la fa :)

irondevil

se
quando si riesce a scalare con un processo produttivo minore anzichè andare
tutto sulle performance ti orienti su un low power scaling diminuisci
la potenza dissipata di un X^5 quindi anche se non si è nel caso ideale
la potenza la potresti cmq ridurre

"Parlate parlate parlate ma alla fine, si vede che é tutta ignoranza,
senza offesa eh.. la parola ignorare non é dispregiativo, anzi.." è già

Guest

avrai fatto anche uno sproloquio ma qua l ignorante sei tu ahimè ,se quando riesce a scalare con un processo produttivo minore anzichè andare tutto sulle performance ti oriente su un low power scaling diminuisci la potenza dissipate si un X^5 quindi anche se non si è nel caso ideale la potenza la potresti cmq ridurre

Lucaaa

Cerca informazioni sui superamoled e ti ricrederai

Lucaaa

Stevie wonder quota tutto quello che hai scritto

Lucaaa

Va a farglielo capire.. gli lcd son antiquati, arrivati al led, ora c'é la nuova via per gli oled (es amoled etc etc)

Le tv puntano agli oled.. perché? Massimo contrasto fra un pixel e il suo adiacente, quindi, fedeltà cronatica migliore

Lucaaa

Quanta ignoranza in poche righe..

1) i benchmark non sono falsificati, il sistema mette la gpu alla massima frequenza con governor performance, cosa che divresti fare tu manualmente prima di fare il benchmark.. perché? Perché il benchmark altro non é che un valore per dare una idea generale della bontà dell'hardware, ed é direttamente proporzionale allaqualità dei drivers e al tipo di calcolo..
Il chip NON é statico, una architettura può essere più efficiente di un'altra in quel frangente.. ergo.. il benchmark sui cellulari é fatto per i PIR.LA che devono dimostrare di avere di più, quando magari neanche sanno che 3/4 del lavoro nella fluidità lo fa il governor..

2) krait 400 ha la stessa architettura di krait 300, solo che usa un processo produttivo diverso con un altro tipo di mosfet, il che gli permette di raggiungere la soglia oltre i 2ghz a parità di consumo..

3) questa é la perla fra le perle dell'ignoranza.. qualcomm é il più ottimizzato?
Vai in

/system/bin/ e cerca MPDECISION

É talmente ottimizzato che L'HOTPLUG dei core é gestito da uno script scritto in c++, non é neanche gestito direttamente dal kernel..

E sai che vuol dire? Che non puoi regolarlo, e che é LENTO, essendo uno script non può girare con prioritá root come il kernel..

Difatti gli hotplug sulle cpu qualcomm fanno tutte schifo.. i coder degli htc hanno spesso usato altre varianti per sfruttare qualche governor con hotplug (tipo pegasusq)

P.s. se devi parlare, informati prima, perché, ok, uno può avere delle preferenze, ma fare delle figure di me.r.da solo per dire la propria idea, beh, quantomeno avere delle basi fondate

P.s2. I qualcomm son ottime cpu, sopratutto per l'asincronismo dei core, peccato vengano usate nella maniera sbagliata

Ah.. s4 exynos é più veloce nell'apertura delle app rispetto al qualcomm.. perché? Beh, semolicemente, l'exynos nom deve fare gli hotplug, visto che con l'exynos tutti i core son senpre attivi, e il chip alimenta i transistors in uso, gli altri li spegne

Mentre i qualcomm alimentano tutto, anche le aree non in uso..

Una bella differenza

Lucaaa

dipende.. l'octa é ottimo per i task matenatici, i qualcomm son più per fpu, quindi, gaming.

Diciamo che.. l'octa ha dei nuovi sistemi di controllo dei consumi che lo rendono più interessante

Lucaaa

Vuoi ridurre i consumi? Comprati un 3330.. durava 1 settimana intera

NON puoi pretendere d'avere una cpu con potenza al pari di un pc fisso per navigare, e sperare di avere autonomia simil cavo elettrico..

O potenza o consumi..
Prima legge della fisica.. nulla si crea, nulla si distrugge, tutto si trasforma..

Poi.. puoi rigirarla quanto vuoi, iphone ha pochi core e va fluido, iphone non dura 8h di schermo acceso come note 2.. note2 si.. (il mio)

Ergo.. non parliamo solo per passare per ignoranti.. il numero maggiore di core serve proprio per mantenere una frequenza più bassa, abbassando i consumi.. perché?
Perché un sistema operativo in media compila sui 200tasks (gruppi di istruzioni) di base.. per aumentarli con l'uso..

Capisci anche te che 200 core possono compilare 1 task a testa.. 50 core 4.. 25 core 8.. ecc ecc..

Ecco perchè esiste il multicore.. per sgravare il lavoro spostandolo sul core libero.. e linux sta cosa la fa egregiamente.. tant'é che é il kernel che gira su tutti i server, i quali hanno bisogno di TANTI cores..

Parlate parlate parlate ma alla fine, si vede che é tutta ignoranza, senza offesa eh.. la parola ignorare non é dispregiativo, anzi..

Lucaaa

Quindi mi vuoi dire che windows 8 pc, se lo fai girare su un super pc della nasa, andrà a scatti?

Se il software é fatto male, é fatto male, ma se l'hardware lo sovrasta di parecchio, neanche se ne accorge la cpu dei difetti

Fabrizio

Lo so, però come tempi di risposta del touch penso sia inutile migliorarlo dato che la differenza sarebbe quasi impercettibile (almeno su ios, su android un pò si potrebbe migliorare) ci sono molte più cose su cui investire..

N#O#R#U#L#E#S

Samsung è la migliore

Apocalysse

Quello di cui stai parlando sono i Benchmark GPU, ma anche se fosse CPU e le prestazioni sono identici come dici, l'Octa gira cmq a frequenze inferiori rispetto alla controparte Snap. In altre parole a parità di frequenza, l'Octa è cmq più performante dello Snap, quindi il risultato è scontato: basta alzare un po il clock per far volare all'exynos ed è quello che succede con l'Exynos 5420 realizzato a 28nm rispetto ai 32nm del precedente Octa, il che si traduce in minori consumi, clock più alto a 1,8Ghz con performance più elevate anche magari a un ridisegno della maschera, ram più performanti da 1866Mhz con banda passante più alta e una GPU (Mali T678) che è il doppio più performante della precedente GPU montata sugli Octa odierni.
Quindi, si, dubbi su quali sia il migliore ce ne sono molti, sopratutto considerando che lo snap 800 è il 20-30% più performande del vecchio Octa ed offre prestazioni grafiche del 40% superiori, ma con tali valori il 5420 può sicuramente rivaleggiare a livello CPU e lo surclasserà a livello GPU, per non dimenticarci dell'Exynos 5440 e del 5450 che saranno il Top gamma dell'Exynos Octa dove li o esce lo Snap 1000 o non c'è storia :)

KingArthas

Krait sinceramente non mi ha mai convinto però la Adreno 330 dovrebbe essere davvero una belva. Come benchmark credo che la Adreno arriverà a vincere (molti bench come Quadrant sono sponsorizzati Qualcomm, chissà come mai...) ma nelle prestazioni di tutti i giorni l'Exynos dovrebbe essere superiore.
I chip video non servono solo nei giochi ma anche ad accelerare la grafica 2D, quindi scrolling, cache video eccetera

Lorkhan

Guarda io avevo il Note 2 e ci avevo installato la Cyano 10.1. Laggava peggio del firmware originale e anche adesso,non sono riusciti a tirare fuori una versione stabile,proprio per le mancanze di Samsung. Qualcomm non rilascera' sempre tutto quanto ma si comporta sempre meglio si Samsung.

JamesFord

ora, anche se minimamente, i pixel si vedono su note2 soprattutto per scritte piccole, il fullhd migliorerà parecchio. La fotocamera non può essere come quella di un lumia, il lumia è un cameraphone, questo no.

Angelo Perrone

Io mi accontento dell'asus fonepad :-)

Ma questo sarà un mostro O.o

irondevil

si è molto probabile ottima intuizione

Andrea

...se non prendevo l'HTC One questo era il mio...ormai sono assetato di pollici...i Phablet sono sicuramente il futuro e il Note 3 mi sembra all'altezza della situazione.

Filippo N8

Schermo full hd non lo distingui dalla distanza tipica con cui usi uno smartphone, processore può anche essere un 18 core o uno snapdragon 100000 che se il software non gira è solo potenza sprecata, fotocamera sarà migliorata ma non ai livelli di un 1020 ed il pennino fa già un ottimo lavoro senza inventarsi gesti o tasti inutili da annettergli che non si userebbero mai. Ripeto..mi auguro che sia un restyling degno del predecessore e meno bisognoso di 2 aggiornamenti al mese in stile s4...detto da un possessore di Note 2.

JamesFord

certo, se poi mettevano un dual core tutti a dire ciofeca perchè è dual core...

Abbiamo provato i nuovi Galaxy Z Fold4 e Z Flip4, ecco le novità! | VIDEO

Recensione TV Samsung QLED QN90B: Mini LED alla prova di maturità

Samsung Galaxy S22 Ultra Snapdragon vs Exynos: il nostro test | VIDEO

iPhone 13 Pro vs Galaxy S22 Ultra: cosa può imparare Samsung da Apple