21.09.2019

Visualizzazione della legge di Fitts. Principi di progettazione: legge di Hick - Processo decisionale rapido


DIMENSIONE E VELOCITÀ DELLA MEMORIA

Se seguiamo la logica di D. Gartley, A.A. Ukhtomsky, NG Samoilova, MN Livanov, G. Walter, E.R. John, K. Pribram e altri sostenitori dell'idea di codifica dinamica delle informazioni percepite e archiviate nella memoria, si può presumere che gli insiemi neurali responsabili della riflessione soggettiva vengano attivati ​​periodicamente, scaricandosi con impulsi.
A causa dei battiti delle frequenze che compongono l'EEG, le immagini della memoria attualizzata sembrano pulsare con un periodo di battimento, la cui durata massima è calcolata dalla seguente formula: T = 1/(FR). Si noti che 1 / R= FT.
Dall'intero set C di immagini della memoria a lungo termine, un numero limitato M di immagini diverse viene aggiornato in ogni momento corrente. In ogni momento corrente, con una probabilità di 1 /M, una delle immagini ha la massima eccitabilità. Il tempo di reazione in risposta alla comparsa di uno stimolo adeguato all'immagine è minimo in questo momento. Gli stimoli vengono dati indipendentemente dalle fluttuazioni periodiche dell'attività dei neuroni (lo sperimentatore non li vede). Di conseguenza, la probabilità che uno stimolo coincida con l'una o l'altra fase delle fluttuazioni dell'eccitabilità è la stessa per tutto il periodo delle fluttuazioni. Alcuni stimoli coincidono con la fase di maggiore eccitabilità e le risposte seguono senza alcun ulteriore ritardo. In altri casi, il ritardo è distribuito uniformemente sull'intero segmento dell'eccitabilità ridotta degli insiemi di neuroni.
Quanto sopra è sufficiente per calcolare la durata media del ritardo t in funzione del numero M di stimoli ugualmente probabili attesi e del numero K di stimoli presentati simultaneamente:
(1)
dove
;
;
F = 10 Hz (costante di Berger); R = 0,1 (costante di Livanov).
L'equazione quantifica la velocità di elaborazione delle informazioni umane. In particolare, il tempo medio necessario per riconoscere uno stimolo tra M stimoli equiprobabili è determinato dalla seguente formula:
.
In psicologia, esiste una legge della velocità di elaborazione delle informazioni da parte di una persona, stabilita da W. Hick. Il tempo di elaborazione aumenta linearmente con la crescita lineare del logaritmo del numero di alternative nelle situazioni di scelta. Lo svantaggio principale di questa legge è la sua portata ristretta. La legge è valida se il numero delle alternative è inferiore a dieci. La legge è stata criticata ed è stata oggetto di molti dibattiti.
L'equazione (1), che include entrambe le costanti fisiologiche ed è derivata dal concetto di codificare le informazioni mediante cicli di attività neurale, è molto più accurata. È efficace con un numero illimitato di alternative e predice i risultati di esperimenti psicologici con un alto grado di accuratezza [Bovin, 1985]. Negli studi di I.Yu. Myshkina, AV Pasynkova, Yu.A. Shpatenko, TS Knyazeva, GV Kotkova, D.V. Lozovoy, O.Zh. Kondratieva, VK Osh e altri dipendenti del laboratorio A.N. Lebedev, è stato scoperto che l'equazione (1) per valutare la velocità della percezione e della memoria predice correttamente una varietà di dati psicologici. Di conseguenza, l'idea di codificare le informazioni percepite e memorizzate da onde di attività neurale ha una solida base sperimentale.
Passiamo ora dalle caratteristiche temporali della percezione alla valutazione del volume delle informazioni percepite e immagazzinate nella memoria. Gli psicologi hanno identificato da tempo diversi tipi di memoria umana: iconica, a breve termine ea lungo termine. Ci sono anche altre classificazioni.
Da un lato, la memoria di una persona sembra sconfinata. Questa è la memoria a lungo termine. D'altra parte, è sorprendentemente piccolo. Tale è la memoria operativa, oa breve termine (di lavoro, come viene talvolta chiamata). E prima era chiamato il volume della coscienza. Gli psicologi hanno cercato di risolvere il problema della dipendenza della quantità di memoria a breve termine dall'alfabeto degli stimoli memorizzati e si sono ritirati. Apparve la regola di D. Miller "sette più o meno due", che affermava l'indipendenza del volume dall'alfabeto degli stimoli memorizzati. Lo spread specificato è ampio, ma in realtà è ancora maggiore: da una o due unità (ad esempio, nel caso dei geroglifici) a 25-30 nel caso dei segnali binari. L'idea dei cicli di attività neurale come substrato materiale della memoria si è qui giustificata in piena conformità con l'idea originale di D. Hartley.
Le unità di memoria, i suoi codici neurali, sono pacchetti di onde, cioè scariche di impulsi sincroni di molti neuroni come parte di un insieme. Ci sono molti insiemi neurali. Ciascuno di essi memorizza informazioni su alcuni oggetti di memoria sotto forma di un modello d'onda stabile. L'insieme è costituito da diversi gruppi di neuroni. Un gruppo separato è in grado di generare sequenzialmente da 1 a 10 impulsi coerenti in un periodo di oscillazioni dominanti, a condizione che gli intervalli tra i burst non siano inferiori al passo libanese R = 0,1 rispetto alla durata del periodo dominante. Il numero di neuroni in un insieme varia. Più neuroni sono coinvolti nei ritmi di un insieme, maggiore è la probabilità di comprendere l'immagine corrispondente. Il numero minimo di neuroni che assicura la stabilità di un insieme è di circa 100-300 [Zabrodin e Lebedev, 1977].
Non le sinapsi e nemmeno i singoli neuroni come i neuroni rivelatori oi neuroni di comando fungono da unità di memoria, ma solo gruppi, insiemi di neuroni pulsanti amichevoli. Naturalmente, questi non sono codici atomici o molecolari, ma cellulari, specificamente neurali. Possono anche essere chiamati codici di memoria ciclica, perché la ciclicità, cioè la regolarità delle scariche di massa dei neuroni, riflessa nella regolarità delle onde dell'elettroencefalogramma, è una caratteristica specifica di tali codici.
L'alfabeto delle unità di memoria neurale è facile da calcolare. È inversamente correlato alla costante di Livanov. Vale a dire, una delle tante raffiche indica l'inizio del periodo. Ecco perché la dimensione dell'alfabeto di tali unità di codice è uno in meno, ad es. N = 1/R – 1. Il numero di gruppi neurali coinvolti nello stato attivo in un periodo (successivamente uno dopo l'altro) è uguale allo stesso numero, N = 1/R – 1. Come si vede, la lunghezza di le catene di codici, cioè insiemi neurali successivamente coinvolti, è limitato dalla stessa refrattarietà alla frequenza ed è altrettanto facile da calcolare.
Da qui, utilizzando la formula, si ricava il numero massimo possibile di diverse sequenze di codici (circa mezzo miliardo).
Questa è la capacità della memoria a lungo termine, C \u003d 99 \u003d 387.420.489 unità di memoria.
Ogni unità di memoria è un concetto o comando specifico, ad es. modello di azione. Ecco un confronto: la dimensione del vocabolario attivo nella lingua madre è di circa 10.000, e anche Shakespeare e Pushkin, il cui vocabolario delle opere è stato calcolato, hanno meno di 100.000 parole. Di conseguenza, una persona è in grado di parlare dozzine di lingue, il che, ovviamente, non è nuovo. La novità è che la capacità di memoria è funzione di una singola costante fisiologica (R = 0,1). Questa è la frazione di Livanov (è così chiamata per analogia con un'altra famosa costante: la frazione Weber (vedi il paragrafo successivo).
La capacità calcolata consente di scoprire la dipendenza della quantità di memoria a breve termine dall'alfabeto degli stimoli memorizzati. In un'equazione, abbiamo collegato tre indicatori psicologici fondamentali: la capacità della memoria a lungo termine (C), la capacità della memoria operativa o di lavoro (H) e la capacità di attenzione (M), cioè numero di diverse immagini aggiornate della memoria a lungo termine:
(2)
In cui si
,
ea sua volta
,
dove R è la costante fisiologica di Livanov (R = 0,1); A è la dimensione dell'alfabeto di stimoli dato.
Va chiarito ancora una volta che non tutte le unità di memoria, cioè non tutti gli ensemble vengono aggiornati contemporaneamente. Solo un piccolo numero M di ensemble viene aggiornato in ogni momento corrente. Questo numero serve come misura della capacità di attenzione.
Se una persona ha concentrato l'attenzione in un determinato momento sulla memorizzazione di elementi binari (zeri e uno), la quantità minima di attenzione è uguale alla dimensione di un alfabeto binario oggettivamente dato a lui familiare, ad es. M \u003d A \u003d 2. La massima attenzione è uguale al seguente prodotto: M \u003d A x H (in questo esempio, M \u003d 2 x H, dove H è un coefficiente di proporzionalità uguale al volume di short -memoria a termine, o di lavoro, per elementi memorizzati).
La memoria a breve termine H è misurata dal numero massimo di elementi, non necessariamente diversi e correttamente riprodotti, tenendo conto del loro valore e della loro posizione nella riga dopo una singola percezione. La durata di una singola percezione non supera i 2–10 s.
Dall'equazione (2), segue una semplice regola per prevedere la capacità della memoria a breve termine per una combinazione di caratteristiche, se si misurano le capacità per ciascuna delle caratteristiche separatamente:
(3)
dove H è il volume desiderato per la combinazione; H 1, H 2 , H 3 - volumi di memoria a breve termine per le caratteristiche iniziali.
Questa formula, derivata analiticamente dalla precedente, prevedeva l'esistenza di un nuovo fenomeno precedentemente sconosciuto in psicologia (e, per di più, con un alto grado di accuratezza). Errore di previsione in diversi esperimenti di N.A. Skopintseva, LP Bychkova, MN Syrenov e altri ricercatori per verificare la formula (3) spesso ammontavano solo al 3-5%. Confrontalo con la regola Miller del 25-35%, che non funziona bene in questa situazione. Secondo Miller, un problema del genere è irrisolvibile.
Nelle opere di I.Yu. Myshkin e V.V. Mayorov [Myshkin, Mayorov, 1993], sviluppando fruttuosamente la teoria della memoria dinamica, così come in altri studi [Markina et al., 1995], sono state stabilite le necessarie dipendenze del volume della memoria dai parametri dell'elettroencefalogramma. Così, l'obiettivo di I.P. è stato realizzato. Pavlova - per spiegare quantitativamente i fenomeni psicologici conosciuti e prevederne di nuovi usando concetti fisiologici (inoltre, fenomeni psicologici fondamentali che descrivono la quantità di memoria e la sua velocità).
È interessante notare che le equazioni per il calcolo della capacità di memoria umana e della sua velocità includono due parametri EEG, la refrattarietà alla frequenza (R) e la frequenza dominante (F). Sono, come si dice dopo P.K. Anokhin, i parametri di formazione del sistema, dovrebbero spiegare molti indicatori psicologici.
Le equazioni (1), (2), insieme alla loro derivazione e verifica sperimentale, sono considerate in dettaglio in alcuni lavori [Lebedev, 1982; Lebedev et al., 1985].
Le formule fisiologiche trovate della memoria e la sua velocità hanno fornito una soluzione a due antichi problemi psicologici. Ci interessa, in primo luogo, il problema della scelta istantanea, la ricerca delle informazioni necessarie nella memoria, le informazioni necessarie ad ogni passaggio per l'attuazione di comportamenti propositivi.
In psicologia cognitiva, forse, la maggior parte della letteratura si basa sul paradigma di S. Sternberg, allievo di D. Luz, riguardo alla velocità di ricerca delle informazioni nella memoria. S. Sternberg ha escogitato una tecnica per determinare questa velocità. È stata rilevata una chiara dipendenza della velocità dalla dimensione della serie di stimoli memorizzati. P. Kavanagh ha elaborato i dati di molti ricercatori e ha trovato una costante di circa 1/4 s, che caratterizza il tempo di scansione dell'intero contenuto della memoria a breve termine, indipendentemente dal contenuto del materiale memorizzato.
Secondo il metodo di S. Sternberg, una persona memorizza prima un certo numero di stimoli, ad esempio i numeri, nel loro insieme - come una singola immagine - e conserva questa nuova immagine fino alla comparsa di un unico stimolo che viene incluso nella memoria impostato (o, al contrario, non è compreso in esso), rispondendo premendo il tasto corrispondente. In questo caso, secondo le condizioni dell'esperimento, il parametro M dell'equazione (1) è uguale al volume H della memoria a breve termine e il parametro K = 1.
Per confrontare un'immagine dello stimolo con quella presentata, è necessario t/H di tempo, e per identificare lo stimolo presentato, se la sua immagine è presente nella serie memorizzata, ci vuole un totale di 1 al numero di N confronti, in media (1 + N) / 2 confronti, cioè es. 0,5(H + 1) t/H unità di tempo, che è pari a 0,25 s a valori tipici di F = 10 Hz e R = 0,1.
Il valore calcolato dai dati fisiologici differisce dal valore sperimentale determinato da Kavanagh da un insieme di dati psicologici di meno del 3%. È interessante notare che a H = 1 (ovviamente secondo le condizioni di misura K = 1), il tempo di confronto secondo la formula (1) è minimo (circa 5 ms). È uguale alla costante di Geissler, con una precisione di 0,3 ms.
Per stimare l'aumento medio del tempo a H > 1 per stimolo, si dovrebbe dividere il valore trovato 0,5(H + l) t/H del tempo di scansione dell'intero contenuto della memoria a breve termine per il numero di incrementi (H - 1) della serie di stimoli. I dati psicologici sono in pieno accordo con il calcolo fisiologico [Lebedev et al., 1985; Lebedev, 1990].
Un'altra previsione riguarda la velocità della ricerca visiva, anche seguendo puramente analiticamente l'equazione (1). La formula (1) non solo stabilisce la dipendenza della velocità di ricerca dalle singole costanti elettrofisiologiche, ma anche dalla dimensione dell'alfabeto dei segnali visivi percepiti [Lebedev et al., 1985].
A causa delle fluttuazioni cicliche nell'eccitabilità degli insiemi neurali, le immagini della memoria a lungo termine, comprese le immagini delle parole percepite e pronunciate, non vengono aggiornate tutte in una volta, ma a loro volta, alcune più spesso, altre meno spesso. Dalla frequenza di attualizzazione, cioè, ad esempio, dalla frequenza di occorrenza della stessa parola nel parlato scritto, si possono giudicare gli schemi dei processi neurali ciclici e, al contrario, prevedere le caratteristiche del discorso in base alle caratteristiche dei cicli neurali.
Se i momenti di attualizzazione di diverse immagini coincidono, allora tali unità di memoria hanno la possibilità di unirsi. Si sviluppa così un nuovo concetto. È così che avviene l'apprendimento e si realizzano gli atti di creatività.
Sopravvivere, cioè solo quelle immagini della memoria, la cui attività ciclica non è correlata tra loro, non si uniscono per sempre in un insieme. I periodi dei cicli di tale attività sono correlati come membri della serie naturale 1:2:3:4…, e le probabilità di attualizzazione come membri della serie armonica (1/1) : (1/2) : (1/ 3) : (1/4). La somma delle probabilità è uguale a uno e il valore del primo termine è uguale alla costante fisiologica di Livanov. Quindi viene derivata la seguente formula, con l'aiuto della quale è possibile prevedere la dipendenza della frequenza di occorrenza di una parola (p) nel discorso connesso dal suo numero di rango:
dove i è il rango della parola in termini di frequenza di occorrenza nel testo.
La formula, che include una costante fisiologica, esprime il noto sin dagli anni '30. La legge di Zipf. Dalla formula (4), seguono le equazioni per calcolare la dipendenza del volume di un dizionario dalla dimensione del testo in cui questo dizionario è implementato e per calcolare gli intervalli tra le ripetizioni della stessa parola nel testo [Lebedev, 1985] . Il discorso, scritto o orale, e non solo la poesia, è musicale. La costante di Livanov è inclusa nell'equazione (4) della serie armonica di parole classificate per frequenza.
Utilizzando più equazioni di regressione lineare per valutare la capacità di apprendimento degli scolari in base alle caratteristiche dell'EEG, abbiamo scoperto che i parametri del ritmo alfa che determinano la capacità di memoria influenzano anche il successo della previsione dello sviluppo intellettuale [Artemenko et al., 1995], il che non sorprende. Pertanto, la teoria dei codici neurali ciclici della memoria ci consente di dare uno sguardo nuovo a leggi psicologiche già note.

afferma che il tempo di reazione quando si sceglie tra un certo numero di segnali alternativi dipende dal loro numero. Questo modello fu stabilito per la prima volta nel 1885 dallo psicologo tedesco J. Merkel e nel 1952 fu confermato sperimentalmente da V. E. Hick e assunse la forma di una funzione logaritmica:

dove VR è il valore medio del tempo di reazione per tutti i segnali alternativi; n è il numero di segnali alternativi equiprobabili; a è il coefficiente di proporzionalità. L'unità viene introdotta nella formula per tenere conto di un'altra alternativa, sotto forma di salto del segnale.

Legge di Hick

inglese La legge di Hick) è una dipendenza sperimentalmente stabilita del tempo di reazione della scelta dal numero di segnali alternativi, ottenuta per la prima volta dallo psicologo tedesco I. Merkel (1885) e successivamente confermata e analizzata dallo psicologo inglese V. E. Hick (Hick, 1952). Questo Hick approssima la dipendenza con una funzione della seguente forma: dove RT è il valore del tempo di reazione mediato su tutti i segnali alternativi, anb sono costanti, n è il numero di segnali alternativi equiprobabili, "+ 1" tra parentesi rappresenta un'ulteriore alternativa: il caso del segnale mancante.

Formulazione equivalente 3.X.: il tempo di risposta aumenta in funzione lineare della quantità di informazioni (misurata in bit). sin. legge Hick-Hyman.

Legge di Hick

Specificità. Secondo questa legge, il tempo di reazione quando si sceglie tra un certo numero di segnali alternativi dipende dal loro numero. Per la prima volta questo schema fu ottenuto nel 1885 dallo psicologo tedesco I. Merkel. Accurata conferma sperimentale è stata ottenuta negli studi di Hick, in cui assumeva la forma di una funzione logaritmica: BP = a * log (n + 1), dove BP è il valore medio del tempo di reazione per tutti i segnali alternativi; n è il numero di segnali alternativi equiprobabili; a è il coefficiente di proporzionalità. L'unità nella formula è un'altra alternativa, sotto forma di salto del segnale.

Legge di Hick

dipendenza sperimentalmente stabilita del tempo di reazione scelto dal numero di segnali alternativi (la quantità di informazioni in ingresso). Questa relazione ha la forma: BP = blog,(n + I), dove BP è il valore medio del tempo di reazione, n è il numero di stimoli alternativi ugualmente probabili, b è il coefficiente di proporzionalità. La "I" tra parentesi tiene conto di un'ulteriore alternativa: saltare il segnale. L'uso dei metodi della teoria dell'informazione ha permesso di estendere la formula di cui sopra al caso di segnali non equiprobabili, indipendentemente da come cambia l'incertezza (entropia) dei segnali in ingresso: modificando la lunghezza del loro alfabeto o modificando le probabilità del loro verificarsi. In una forma più generale, la formula ha la forma: dove n è la lunghezza dell'alfabeto dei segnali, P, è la probabilità di ricevere un segnale i-ro, H è la quantità di informazioni in entrata (media per segnale), a e b sono costanti che hanno il seguente significato: a - tempo di reazione latente, b è il reciproco della velocità di elaborazione dell'informazione da parte dell'operatore (tempo di elaborazione di un'unità binaria di informazione). La velocità di elaborazione delle informazioni da parte di una persona V= 1/b varia ampiamente e dipende da un gran numero di fattori. 3. X. è utilizzato in psicologia ingegneristica ed ergonomia per l'analisi delle informazioni sull'attività dell'operatore, il calcolo del tempo per la risoluzione di un problema da parte dell'operatore, il coordinamento della velocità del flusso di informazioni all'operatore con le sue capacità psicofisiologiche di ricezione ed elaborazione delle informazioni (larghezza di banda). Quando si utilizza 3.X., è necessario tenere conto delle possibilità e dei limiti dell'applicazione della teoria dell'informazione nella psicologia ingegneristica.

Uno degli indicatori di un moderno prodotto IT di alta qualità è un'interfaccia attraente e facile da usare. È importante che uno sviluppatore capisca come si comporta l'utente e ne tenga conto nella propria applicazione o sito Web. Per questo, è necessario comprendere alcune regole psicologiche, di cui parleremo in questo articolo.

1. Legge di Fitts

Il tempo necessario per raggiungere l'obiettivo dipende dalle dimensioni dell'obiettivo e dalla distanza da esso.

Più veloci sono i movimenti e più piccolo è l'obiettivo, maggiore diventa il tasso di errore, credeva lo psicologo Paul Fitts nel 1954. Ciò ha influenzato la decisione di rendere grandi i pulsanti interattivi, in particolare sui dispositivi mobili a pulsante. La distanza tra l'attività/punto attivo dell'utente e il pulsante associato a questa attività dovrebbe essere minima.

Dove è scritto più in dettaglio:

2. La legge di Hick (Hick-Hyman)

Il tempo necessario per fare una scelta aumenta con il numero e la complessità delle scelte stesse.

Nel 1952, William Hick e Ray Hyman tentarono di studiare la relazione tra il numero di stimoli e il tempo di risposta dell'individuo a uno qualsiasi di essi. Come previsto, più stimoli venivano offerti tra cui scegliere, più tempo occorreva per decidere se interagire con uno di essi. Conclusione: gli utenti "attaccati" per scelta trascorrono più tempo nella scelta di un obiettivo per l'interazione. Devono fare cose che non gli piacciono.

Dove è scritto più in dettaglio:

  1. Principi psicologici di sviluppo UX/UI per ogni designer.

3. La legge di Giacobbe

Gli utenti trascorrono la maggior parte del loro tempo su altri siti (non sul tuo). Ciò significa che vorrebbero che il tuo sito funzionasse come tutte le altre risorse con cui hanno già familiarità.

Questa legge è stata scritta da Jakob Nielsen, uno specialista dell'usabilità web e capo del Nielsen Norman Group, co-fondato con Donald Norman, che in precedenza era vicepresidente di Apple Computer. Il Dr. Nielsen ha lanciato un movimento il cui obiettivo era migliorare le interfacce utente in modo rapido ed economico. Ha anche creato diversi metodi pratici, inclusa la valutazione euristica.

4. La legge della concisione

Le persone percepiranno e interpreteranno immagini ambigue o complesse come una forma semplice. Ciò è dovuto al fatto che per interpretare è richiesto un piccolo sforzo cognitivo.

Lo psicologo Max Wertheimer ha condiviso la sua osservazione delle luci lampeggianti a un passaggio a livello. Era come le luci sulle insegne dei cinema nei vecchi film western. All'osservatore sembra che la luce si muova costantemente attraverso le lampadine, passando dall'una all'altra. Ma in realtà le lampadine si accendono e si spengono solo in una certa sequenza e la luce non si muove affatto. Questa osservazione ha portato a una serie di principi descrittivi su come una persona percepisce visivamente gli oggetti. E questi principi sono alla base di quasi tutto ciò che fanno i grafici.

Dove è scritto più in dettaglio:

  1. Principi di progettazione: percezione visiva e psicologia della Gestalt.
  2. Le leggi dell'organizzazione figurativa della percezione, della concisione e della prossimità nella psicologia della Gestalt.

5. Legge di Prossimità

Gli oggetti posizionati uno accanto all'altro tendono a raggrupparsi.

Questa legge si riferisce alle leggi della Gestalt dell'organizzazione della percezione e della psicologia della Gestalt, che furono fondate da Max Wertheimer. Ha notato che le rapide sequenze di eventi creano l'illusione del movimento (come nell'esempio della lampadina sopra). Secondo la legge di prossimità, una persona è incline, per così dire, a completare le figure inferiori. Un esempio potrebbero essere i filmati, che sono una rapida successione di immagini fisse che danno l'impressione di un taglio senza interruzioni. Viene anche chiamato fenomeno Phi.

Dove è scritto più in dettaglio:

6. Legge di Miller

La persona media può memorizzare 7 elementi (più o meno 2) nella propria memoria di lavoro.

Nel 1956, George Miller ha affermato che la gamma della memoria immediata è limitata a circa sette informazioni. Ha tratto questa conclusione sulla base dei risultati di esperimenti condotti tra gli operatori della società Bell Laboratories, in cui ha lavorato. Miller ha notato che la memoria a breve termine di una persona è in grado di funzionare in media con otto cifre decimali, sette lettere dell'alfabeto e cinque parole monosillabiche, ovvero siamo in grado di memorizzare contemporaneamente una media di 7 ± 2 elementi.

La memoria a breve termine è in qualche modo simile a un portafoglio in cui puoi mettere sette monete contemporaneamente. La memoria non cerca di capire quale valore e quale valuta hanno queste monete: è importante che tu le abbia nel tuo portafoglio.

Dove è scritto più in dettaglio:

  1. Principi di progettazione per la riduzione del carico cognitivo.
  2. Legge di Miller: La divisione e la riserva della memoria di lavoro umana.

7. Legge di Parkinson

Qualsiasi attività si espanderà fino a quando non sarà trascorso tutto il tempo disponibile (gratuito).

Nel 1955 Cyril Parkinson pubblicò un articolo satirico sulla rivista britannica The Economist in cui formulava la legge empirica: "Il lavoro riempie il tempo assegnatogli". Inoltre, nel 1958, fu pubblicato il libro di John Murray Parkinson's Law: The Pursuit of Progress, che includeva una serie di articoli di contenuto simile.

Dove è scritto più in dettaglio:

  1. Legge di Parkinson: la limitazione è la cosa migliore con cui devi lavorare.

8. Effetto del numero di serie

L'effetto ordinale è la tendenza dell'utente a ricordare al meglio il primo e l'ultimo elemento di una serie.

Hermann Ebbinghaus descrive come la posizione di un elemento in una sequenza influisca sull'accuratezza dei ricordi. Il termine include anche effetti di primato e di attualità, che spiegano perché gli elementi presentati all'inizio e alla fine di una sequenza vengono richiamati con molta più facilità. di maggiore successo di quelli nel mezzo. L'uso dell'effetto del numero di serie può essere visto nei progetti di aziende come Apple, Electronic Arts e Nike.

Dove è scritto più in dettaglio:

    Afferma che il tempo di reazione quando si sceglie tra un numero di segnali alternativi dipende dal loro numero. Questo modello fu stabilito per la prima volta nel 1885 dallo psicologo tedesco I. Merkel e nel 1952 fu confermato sperimentalmente da V. E. Hick e ... ... Grande Enciclopedia Psicologica

    Legge di Hick- l'affermazione che il tempo di reazione nella scelta tra un certo numero di segnali alternativi dipende dal loro numero. Questo modello fu ottenuto per la prima volta nel 1885 dallo psicologo tedesco I. Merkel e nel 1952 ricevette una conferma sperimentale in ... ... Dizionario psicologico

    Legge di Fitts- una legge generale relativa ai processi senso-motori, che collega il tempo del movimento con l'accuratezza del movimento e con la distanza del movimento: più lontano o più accuratamente viene eseguito il movimento, più correzioni sono necessarie per completarlo, e di conseguenza. .. ...Wikipedia

    Legge di Hick- dipendenza sperimentalmente stabilita del tempo di reazione scelto dal numero di segnali alternativi (la quantità di informazioni in ingresso). Questa dipendenza ha la forma: BP = blog, (n I), dove BP è il valore medio del tempo di reazione, n è il numero di equiprobabili ... ...

    HIKA-HYMAN, LEGGE- Una generalizzazione che riflette il fatto che il Tempo di Reazione (RT) aumenta in funzione della quantità di informazioni coinvolte nella formazione della reazione. Cioè, RT \u003d a bH, dove a e b sono costanti e H è la quantità di informazioni misurate in bit. ... ... Dizionario esplicativo di psicologia

    Tempo di reazione- Il tempo dal momento dell'irritazione dei recettori all'inizio della reazione riflessa. * * * L'intervallo di tempo dal momento della presentazione di qualsiasi stimolo alla risposta dell'organismo. Parte di questo tempo è il periodo latente (nascosto). V.r. ... ... Dizionario Enciclopedico di Psicologia e Pedagogia

    Correlazione- (Correlazione) La correlazione è una relazione statistica di due o più variabili casuali Il concetto di correlazione, tipi di correlazione, coefficiente di correlazione, analisi di correlazione, correlazione di prezzo, correlazione di coppie di valute su Forex Contenuti ... ... Enciclopedia dell'investitore

    Alekseev, Nikolai Alexandrovich (attivista per i diritti umani)- Wikipedia contiene articoli su altre persone con il nome Alekseev, Nikolai Aleksandrovich. Nikolai Aleksandrovich Alekseev ... Wikipedia

    Hick William Edward- (1912 1975) dottore, psicoterapeuta, psicologo inglese. MA (1954), MD (Durham, 1949), membro della British Academy of Psychological Sciences e del Medical Research Council. Ha lavorato all'Università di Cambridge per... Dizionario psicologico

    HIK- (Hick) William Edward (1912 1975) medico, psicoterapeuta, psicologo inglese. Master of Arts (1954), MD (Durham, 1949), cap. British Academy of Psychological Sciences e Medical Research Council. Ha lavorato all'Università di Cambridge... Dizionario Enciclopedico di Psicologia e Pedagogia

Più oggetti abbiamo di fronte, più tempo ci serve per scegliere. La legge di Hick in forma semplificata si presenta esattamente così.

La dipendenza formulata a metà del XIX secolo è stata confermata sperimentalmente solo nel 1952 dagli psicologi William Hick (Gran Bretagna) e Ray Hyman (USA).

Formula Hick-Hyman

Gli scienziati hanno ricavato una formula che descrive la relazione logaritmica tra il tempo di reazione e il numero di oggetti tra cui scegliere.
T = a + b * log2(n + 1)

In cui si
T è il tempo di reazione totale,
un e b - costanti che descrivono le caratteristiche individuali della percezione, come il ritardo prima del completamento del compito e il coefficiente di velocità di decisione individuale,
n è il numero di alternative equivalenti tra cui scegliere.

Cosa significa

Per chiarezza, costruiamo un grafico. Se non prendiamo in considerazione le variabili aeb, che dipendono esclusivamente dalle caratteristiche individuali di una persona, allora apparirà così: L'asse verticale T è il tempo di reazione, l'asse orizzontale n è il numero di oggetti alternativi di scelta.

Ecco come cambia il tempo di reazione all'aumentare del numero di oggetti:

Vediamo che il tempo di reazione quando si aumentano gli oggetti da 2 a 5 è aumentato di 1 unità convenzionale. E ora notate che il tempo di reazione aumentava della stessa 1 unità convenzionale quando gli oggetti venivano aumentati da 50 a 100. Questa è la dipendenza logaritmica.

Meno oggetti sono, più facile e veloce sarà scegliere quello giusto tra di essi. Ma con un aumento del numero di oggetti oltre un certo numero, il tempo di reazione cambia leggermente.

Applicazione generale della legge di Hick



Durante la progettazione delle interfacce, la legge di Hick aiuta a determinare il numero ottimale di oggetti in una matrice omogenea, ad esempio in un menu. Di solito è usato insieme alla legge di Fitts, che aiuta a determinare la dimensione ottimale dell'elemento in termini di velocità di reazione.

La legge di Hick è anche strettamente correlata ad altri principi di percezione e caratteristiche psicologiche del processo decisionale. Può essere considerato altrettanto efficacemente nel contesto della teoria della prossimità e della regola 7 +/- 2, così come in altri modelli di comportamento degli utenti sul sito.

Al di fuori dell'ambiente Internet, i principi della legge di Hick sono implementati in quasi tutte le interfacce che interagiscono con l'utente: dal pannello di controllo di un forno a microonde alla posizione e al numero di pulsanti del telecomando di un televisore.

Caratteristiche della complessa applicazione delle leggi di Hick and Fitts in UX



Nota che le leggi descrivono azioni che di solito si susseguono una dopo l'altra.
  1. Immediatamente dobbiamo fare una scelta (legge di Hick)
  2. E poi - colpisci l'elemento desiderato (legge di Fitts)
Pertanto, il tempo totale può essere calcolato come somma dei valori delle due formule.
Nel contesto di UX, ciò significa quanto segue:
  • Un lungo menu (o la disposizione di elementi omogenei in un blocco) è più conveniente per l'utente rispetto a due o più separati.
  • Quando si progetta un'interfaccia, è necessario tenere conto di entrambe le leggi e cercare di ottimizzare sia le dimensioni e la posizione dei blocchi, sia il numero di elementi in ciascun blocco.
  • Puoi anche essere guidato dalle leggi durante la compilazione e l'ottimizzazione dei profili delle attività. La legge di Hick è particolarmente indicativa quando si analizza il processo di localizzazione e la compilazione dei campi dei moduli.
La legge di Hick è meno nota della legge di Fitts. Tuttavia, lo integra perfettamente e aiuta a progettare l'interazione dell'utente in modo più consapevole ed efficiente.

  • Maggiore è il numero di oggetti, maggiore è il tempo necessario all'utente per selezionare quello giusto da essi.
  • La relazione tra tempo di reazione e numero di alternative di scelta è descritta da una funzione logaritmica.
  • La legge di Hick consente di calcolare il numero ottimale di oggetti in un blocco.
  • L'applicazione della legge di Hick in combinazione con la legge di Fitts consente di prevedere con maggiore precisione il tempo di reazione dell'utente durante l'interazione con l'interfaccia.
Ignorare le leggi di Hick and Fitts è come sparare ad occhi chiusi. Puoi arrivarci solo per caso. Se prendi sul serio la progettazione dell'interfaccia, sia i principi che le formule che li descrivono ti aiuteranno a creare una soluzione davvero efficace.