appunti dal corso di
____________________________________________________________________________________________________________________________________________
introduzione alla fisica
dei sistemi complessi
____________________________________________________________________________________________________________________________________________
berselli gregorio lanzi samuele
barbieri matteo farn� gabriele
https://github.com/Grufoony/Fisica_UNIBO
Definizione 1.1.1. Sistema Complesso � un sistema dinamico composto da sottosistemi interagenti tra loro, chiamati agenti.
Per lo studio di un sistema complesso si usa solitamente un approccio olistico, ossia si studiano prevalentemente le propriet� macroscopiche del sistema totale, senza considerare i singoli sottosistemi. Un’osservazione importante che va effettuata � che un modello di sistema complesso prevede, non descrive.
Per un numero elevato di gradi di libert� � possibile utilizzare l’approccio della meccanica statistica. Alcune delle propriet� principali dei sistemi complessi sono:
complessit�: presenza di molti d.o.f. (molti agenti)
propriet� emergenti: derivano dal grande numero di agenti. Ad esempio possiamo definire fluido un insieme di molte particelle ma la particella singola non pu� essere fluida.
autorganizzazione: i sistemi complessi sono ibridi, ossia met� stocastici e met� deterministici. Per studiarli devo dare ugual peso a entrambi gli aspetti.
La complessit� dei sistemi fa si che per definirne uno stato occorra molta informazione. Ogni sistema complesso fornisce un feedback rispetto alle condizioni inziali che sono fornite. In particolare, si parla di feedback positivo se le condizioni iniziali portano il sistema a "esplodere", ossia ad allontanarsi inesorabilmente dall’origine, mentre si parla di feedback negativo quando dopo un certo periodo di tempo il sistema ritorna alle condizioni iniziali.
In un sistema classico, una volta scritta la lagrangiana (o hamiltoniana) del sistema e ottenute le equazioni del moto, � cosa fatta determinarne l’evoluzione nel tempo (traiettorie). Nei sistemi complessi, tuttavia, non � possibile utilizzare un approccio deterministico: si parla infatti di caos deterministico. Questo caos � causato soprattutto dalle fluttuazioni intrinseche dei sistemi complessi, le quali li rendono particolamente sensibili alle condizioni iniziali. Si consideri sistema alle condizioni iniziali x0. Dopo un tempo t, si trover� naturalmente il sistema in una posizione x(t) determinata dalle condizioni iniziali. Si assuma ora la presenza di fluttuazioni sulle condizioni iniziali x0 + δ0: il sistema evolver� ora come x(t) + δ(t). La teoria vuole che le fluttuazioni seguano l’andamento
|
dove il coefficiente λ � detto esponente di Ljapunov. Il calcolo di questo parametro non � banale, pertanto non verr� dimostrato ma solo riportato.
Nonostante il limite precendente appaia complicato, nella maggior parte dei casi �
possibile utilizzare l’approssimazione λ ≃ ∑
k ln
, dove k indicizza una traslazione
temporale Δt. Per comprendere i limiti dell’approssimazione precedente si pu� notare come
δ0eλt = o(1), quindi ln δ
0 + λt = 0.
Si pu� notare come:
l’esponente di Ljapunov � una propriet� dell’orbita, non del punto, ed � quindi necessario interagire su tempi lunghi;
un’alta sensibilt� alle condizioni iniziali implica una scarsa predittivit�;
per λ >> 1 � possibile utilizzare l’approccio statistico;
le propriet� sono locali (ma non cos� tanto locali).
Non � possibile conoscere a priori il segno di λ. Il caos deterministico, ovviamente, si ottiene solo se λ > 0 (l’esponenziale esplode) in un insieme a misura finita. Ne consegue che le orbite debbano espandersi rimanendo limitate, fenomeno noto come stretching-folding, che comporta la conservazione di una misura (volume).
Teorema 1.2.2. di Poincar� (del ritorno)
Un sistema dinamico che conserva i volumi su un compatto ritorna arbitrariamente
vicino alle condizioni iniziali (feedback negativo).
Punto fondamentale di un sistema complesso � costruire un modello che riesca a riprodurre le sue caratteristiche fondamentali, per poi studiarlo. Innanzitutto, per prevedere un sistema occorre:
un modello (matematico) per l’evoluzione;
una conoscenza dello stato presente (o passato) del sistema sufficiente ad inizializzare il modello;
In Fig.(1.1) � presente lo schema operativo della creazione di un modello. Il punto di
partenza � sempre un problema, la cui osservazione sperimentale fornisce i dati
sui quali costruire un modello di teoria . Con esso � poi possibile eseguire delle
predizioni da confrontare con i dati sperimentale per comprenderne l’affidabilit� e gli
eventuali scenari incompatibili. Ovviamente un buon modello teorico deve avere
dei parametri manipolabili (di controllo) e caratteristiche valide universalmente.
Si possono distinguere due tipologie di modelli, le quali verranno ora analizzate.
La prima tipologia di modello sono i modelli ad agente, ossia quei modelli in cui si effettua uno studio di tipo bottom-up (dal particolare al generale). Assunzione fondamentale � di avere piena conoscenza sui comportamenti dei singoli agenti e sull’ambiente in cui questi si relazionano. Una volta formalizzati matematicamente i comportamenti dei singoli � possibile procedere con una simulazione, la quale fornir� una possibile evoluzione del sistema. � essenziale notare come in questo caso il risultato ottenuto sia solamente uno dei tanti possibili: bisogner� quindi effettuare la simulazione numerose volte e mediare sui risultati ottenuti. Riguardo la costruzione del modello, la prima cosa da definire � l’ambiente in cui ci si trova. Questo pu� essere neutro o avere caratteristiche, ad esempio una distribuzione di nutrimento (per sistemi biologici). Altro punto fondamentale � definire spazio e tempo. Spesso non fa differenza la scelta di spazi e tempi discreti rispetto ai continui, quindi � preferibile assumere una discretizzazione iniziale per poi passare al continuo successivamente. Una volta definito lo spazio bisogna poi decidere le condizioni al contorno, ossia il comportamento ai bordi. Si possono avere barriere di tre tipi:
riflettenti, dove si ha un bordo non oltrepassabile. Si crea quindi un fenomeno di attrattivit� delle pareti.
periodico, dove si hanno i bordi coincidenti (esco da una parte e rientro dall’altra). Lo spazio assume in questo caso una forma toroidale.
assorbenti, dove gli oggetti "uscenti" vengono distrutti. In questo caso bisogna di introdurre delle sorgenti nel modello per evitare di perdere tutti gli agenti.
Si nota facilmente come pi� piccolo sia il modello, pi� importante sia il contributo degli effetti
di bordo.
Nella maggior parte dei sistemi non tutti gli agenti hanno le stesse caratteristiche: si
definiscono allora classi di appartenenza, legate tra loro da relazioni matematiche.
La seconda ed ultima tipologia di sistema complesso � data dai modelli a equazioni, ossia quei modelli in cui si effettua uno stduio di tipo top-down (dal generale al particolare). In questo caso si assume di non avere conoscenza sui singoli agenti ma di possedere informazioni di carattere puramente macroscopico, dette osservabili del sistema. Tipicamente, gli osservabili sono legati tra di loro tramite equazioni differenziali le quali, una volta integrate, forniscono un’evoluzione del sistema nel tempo. In questo caso il risultato ottenuto rappresenta gi� una media di tutti i risultati possibili: le fluttuazioni del sistema provocheranno quindi uno scostamento da questo valore. Ovviamente, pi� tempo si far� evolvere il sistema, pi� rilevante sar� l’effetto delle fluttuazioni e meno preciso sar� il risultato della previsione.
Per l’analisi matematica dei sistemi � utile definire le funzioni di distribuzione, le quali sono indicatori della frequenza di avvnimento di un fenomeno.
La gaussiana, riportata in Fig. (1.2), � nota come la distribuzione degli errori ed � tra le pi� importanti funzioni della fisica. Caratteristica principale � la sua discesa molto veloce superata una distanza pari a σ dal valore medio.
L’esponenziale, riportato in Fig. (1.3), � la distribuzione emergente dalla meccanica statistica (fattori di Boltzmann).
La potenza, riportata in Fig. (1.4), � una distribuzione che possiede un’importanate propriet�, detta invarianza di scala.
Teorema 1.4.2. Limite centrale:
Siano xk variabili casuali indipendenti, allora:
lim N→∞z = ∑
k=1Nx
k =
e-
Un sistema che vuole simulare l’evoluzione di una popolazione in spazi e tempi discreti � detto automa cellulare. Si vuole ora creare un automa cellulare con le seguenti caratteristiche:
effetto di riproduzione: consiste in un aumento del numero di individui che si riflette nell’espansione esponenziale del sistema (effetto comune in natura purch� le risorse siano sufficienti), ossia
|
effetto di competizione: limita la crescita della popolazione. Un individuo compete coi suoi simili, quindi il contributo competitivo sar� del tipo
|
Assunzione fondamentale di questo modello � che ogni individuo possa incontrare tutti quegli altri, irrealistico in quanto in una rete sociale la probabilit� di incontri varierebbe da individuo a individuo. In un modello continuo si avrebbe
|
dove Δt rappresenta il tempo in cui la popolazione evolve (teoria del campo medio), a � il tasso di riproduzione e b il tasso di incontri, questi ultimi assunti costanti. Nel limite Δt → 0 si ottiene l’equazione logistica
(1.1) |
che altro non � che la rappresentazione continua della mappa logistica
(1.2) |
ossia la rappresentazione dinamica non lineare pi� semplice che degenera in un moto
caotico, resa pubblica nel 1976 dal biologo Robert May.
La stabilit� del sistema si ha ovviamente per n = e la soluzione analitica del problema
diventa
|
riscrivibile nella forma di funzione logistica
(1.3) |
Si pu� osservare come i limiti f(t) = �1 rappresnetino due stati fissi mentre la zona centrale sia di transizione, quindi per f(t) = 0 si avr� la massima variazione.
Il modello pi� basilare di sistema complesso � sicuramente la random walk su una retta,
ossia un punto che ogni istante di tempo decide in maniera casuale se spostarsi a destra o a
sinistra. Sia p = la probabilit� di muoversi verso destra (quindi anche a sinistra) di un
passo Δx. Si hanno:
{R}: p(t + Δt) = x(t) + Δx
{L}: p(t + Δt) = x(t) - Δx
Dopo n passi si ha quindi p(nΔt) = x0 + ∑
kξkΔx con ξ(t) = �1. Inoltre si pu� verificare che
< ξk >= 0, < ξk2 >= 1, < ξ
kξh >=< ξk >< ξh >,k≠h. Per il teorema del limite centrale si
ha: ∑
knξ
kΔx = =
e-
, con z variabile gaussiana.
Introducendo il concetto di diffusione:
si pu� descrivere l’evoluzione del sistema come x(t) = x0 + z Si utilizza
per
normalizzare in quanto � l’unico esponente non divergente. La varianza della gaussiana
cresce nel tempo, infatti calcolando i momenti della distribuzione si trova < x(t) >= x0,
< (x(t) - x0)2 >= Dt. Se la topologia del sistema fosse una circonferenza (e non
una retta), si avrebbe un rilassamento esponenziale a una situazione stazionaria.
Definito un intervallo -L,L sulla retta, la probabilit� che il punto vi sca dopo un tempo t
� data da:
(1.4) |
Si pu� facilmente notare come raddoppiando la distanza L il tempo t quadruplichi.
Volendo espandere il modello di random walk ad uno spazio 2D si nota subito come,
essendo ogni asse indipendente dall’altro, si possa semplicemente comporre due
gaussiane:
|
Dove la diffusione segue la definizione precedente ed � la stessa in tutte le direzioni. La funzione ρ(x,y,t) rappresnta di fatto la probabilit� che la il soggetto in analisi si trovi in un volume ΔxΔy. Si pu� riscrivere la relazione precedente in coorfinate polari ottenendo:
|
studiando pi� semplicemente l’allontanamento dall’origine. In particolare, l’allontanamento medio risulta:
|
e la densit� diminuisce quindi esponenzialmente.
Si consideri ora una random walk 1D con probabilit� non uniforme in un reticolo di passo Δx. Sia ϵ un parametro e si definiscano le probabilit�:
|
Si pu� verificare facilmente come le probabilit� siano ben definite. Il sistema tende a muoversi pi� velocemente nel verso positivo delle x e pi� lentamente nel verso opposto, assomigliando a una scatola con aria a diversa temperatura: vi � quindi un equilibrio locale (ogni nodo � identico). Si pu� osservare come:
|
Ogni passo ho un enemble differente, quindi lo spazio non � omogeneo. Ponendo T(x) =< Δx2 > come funzione corrispondente alla temperatura fisica, si ottiene un gradiente costante:
|
Questo gradiente si ritrova spesso in natura, ad esempio i batteri variano la velocit� di
movimento (casuale) dei loro flagelli seguendo un gradiente di cibo. Per essere apprezzabile
la variazione di temperatura deve essere tale che ΔT = Δx ∝ Δx3 e in un limite
continuo si ottiene:
|
Andando a calcolare media e mediana del sistema si nota come:
|
In conclusione la maggior parte delle particelle si trova nella zona fredda (x < 0), come vuole la fisica, ma la media della distribuzione si trova nella zona calda (x > 0).
Consideriamo di avrere n0 individui iniziali su una griglia (spazio discretizzato) che si muovono seguendo una Random Walk 2D e soggetti alle seguenti restrizioni:
se un individuo ha spazio sufficiente, si riproduce in un tempo Δt, allora si deve avere Δn(t) ∝ n(t);
se due individui competono per lo stesso spazio, uno dei due soccombe con una certa probabilit� p, il che implica Δn(t) ∝-n2(t);
Si osservi come il termine n2(t) conti il numero di coppie. Definita la scala di tempo Δt, in un modello continuo si deve avere (teoria del campo medio):
|
con a parametro di riproduzione e competizione nella popolazione (dato dall’ambiente).
Imponendo l’equilibrio
|
si ottengono i punti critici n = 0, instabile, e n = stabile. La soluzione al sistema � quindi
del tipo
(1.5) |
e la funzione logistica del sistema �
(1.6) |
Consideriamo un gatto su un toro Π2 (ciambella) in gradi di muoversi secondo la:
|
Risulta ovvio come
|
quindi si conservino le aree. Calcolo degli autovalori:
|
e si ottengono
|
Il sistema dilata densamente lungo la direzione v+ dell’autovettore λ+ > 1. Dato un vettore iniziale x0, (x0 ⋅ vt)λtn ⇒ ln λ t � l’esponenziale di Ljapunov.
In Fig.(1.6) � rappresentata un’applicazione della catmap su un insieme di punti. Si pu�
notare come una volta fatto evolvere il sistema partendo dall’area nera, questo non
ritorni nella condizione iniziale applicando la trasformazione inversa (area verde).
Problema: data una distribuzione di punti ρ0, cosa succede a ρ0(Tnx)?
Per definizione, data una distribuzione ρ(x), questa deve essere normalizzata
∫
Π2ρ(x)dx = 1. L’equazione di continuit� permette di imporre la conservazione del numero
di particelle:
|
in cui si riconosce = det
= 1, quindi ρ0
evolve in una distribuzione di
particelle. Si pu� ora constatare che, se I(x) � un osservabile del sistema, vale la
relazione:
|
La teoria suggerisce l’esistenza di una distribuzione invariante ρs = ρ
s. Sia ora
χA(x) la funzione caratteristica del dell’insieme A, e ρ0(y) =
, I(x) = χB(x).
L’integrale precedente diviene:
(1.7) |
e si � cos� dimostrato il teorema 1.2.2.
Si vuole ora costruire un primo modello legato alla realt� simulando, per quanto
grossolanamente, l’economia globale.
Supponiamo di avere M individui con n soldi ciascuno, che si muovono su una griglia
secondo una Random Walk 2D. Ogni qualvolta due individui si trovino sulla stessa cella
questi si scambiano 1 soldo con probabilit� p = .
Caso limite: se si incontra un povero (n = 0), si gioca lo stesso (gioco scorretto)
per permettere a tutti di uscire dalla povert�. Il sistema ha quindi i seguenti
limiti:
|
con N costante, quindi non si ha creazione/distruzione di denaro. La probabilit� di trovare un individuo con n soldi �:
|
e, ponendo n = , si pu� calcolare:
(1.8) |
quindi la probabilit� decresce esponenzialmente.
Il modello prevede quindi:
molti poveri e pochi ricchi (ma praticamente nessun super-ricco)
esiste un tempo in cui un povero diventa ricco (e viceversa)
simile alla distribuzione di energia di Maxwell-Boltzmann
se chi � ricco pagasse di pi� si otterrebbe una curva a campana
Tuttavia osservando i dati sperimentali si nota una discrepanza: nella realt� la probabilit� sembra seguire una legge a potenza piuttosto che esponenziale. Pur non trovando riscontro nella realt�, si � appena dimostrato stocasticamente il fattore di Boltzmann e-βϵ. Si pu� quindi pensare il denaro come un’energia interna al singolo mentre la probabilit� di scambio rappresenta la temperatura statistica del sistema.
Per adattare il modello precedente alla realt� si introduce una microdinamica sugli scambi
di denaro.
Sia π� la probabilit� di guadagnare �1 soldi se un soggetto ne possiede n. Il sistema
possiede una struttura di catena:
Definizione 1.5.2. Struttura di catena.
Un modello ha struttura di catena quando il flusso in una direzione implica un secondo
flusso nella direzione opposta.
A causa di questa struttura, all’equilibrio si deve avere:
|
e in particolare � verificato il bilancio dettagliato:
(1.9) |
Normalizzata la distribuzione � possibile iterare il tutto:
|
Riscrivendo un maniera pi� comoda il bilancio dettagliato, si pu� poi procedere:
|
|
Si possono notare ora le seguenti dipendenze, introducendo la coppia di parametri costanti (a, b):
|
Cercando ora l’andamento di p(n):
(1.10) |
si ottiene esattamente l’andamento a potenza ricercato.
Si consideri un giocatore d’azzardo con a disposizione un capitale k e che vuole arrivare ad un capitale M. Il gioco finisce ai “bordi” (barriera assorbente) per k = 0 (giocatore rovinato) o per k = M (giocatore felice). Siano p la probabilit� di guadagnare, q = 1 -p la probabilit� di perdere, PM(k) la probabilit� di arrivare al capitale M partendo da k. Come nel modello economico evoluto si ha:
|
con i vincoli
|
Ragionando per induzione si ottiene:
|
(1.11) |
Inoltre,
(1.12) |
In particolare, considerando un gioco equo, si pu� notare come PM(k) = e
quindi:
il gioco � alla pari solo se k ≃ M
la probabilit� di vincita aumenta all’aumentare del proprio capitale rispetto a quello avversario
contro un casin� (M → ∞) la probabilit� di vincita � evidentemente nulla anche in caso di gioco equo (assunzione oltretutto inverosimile)
Data una distribuzione di probabilit� ρ(x) normalizzata (integrale sul dominio uguale a 1) � possibile procedere con le seguenti definizioni:
Definizione 2.1.3. Probabilit� stazionaria
La probabilit� stazionaria � il numero di volte che un evento accade in una sequenza.
Teorema 2.1.1. legge dei grandi numeri
Siano A e B due eventi distinti (osservati N volte), allora si ha che
lim N→∞ = p(B∕A)
Definizione 2.1.4. Sia x una variabile aleatoria con un sample {x1,…,xn} di osservazioni ordinate tali che x1 ≥ x2 ≥ …. Allora xj = f(j) � detta ranking distribution.
Solitamente tale distribuzione � normalizzata in modo che yj = . Per definizione la
frequenza di un evento �
, quindi la distribuzione cumulata risulta
(2.1) |
con J(xj inverso del ranking. La funzione di distribuzione sar� quindi
(2.2) |
Si supponga di voler calcolare l’incertezza di una distribuzione di probabilit� p1,…,pn per gli eventi {x1,…,xn}. Si assuma:
H(p1,…,pn) continua;
se pj = allora H(
,…,
) � monotona crescente;
Dati gli eventi composti y1 = {x1,…,xm}, y2 = {xm+1,…,xm+k} con probabilit�
P(yi∕xi) = , allora
H(p1,…,pn) = H(w1,…,wn) + w1H + w2H
+ …;
La soluzione � del tipo H(p1,…,pn) = -ks ∑ ipi ln(pi) dove si definisce
con ks = costante di Shannon. Si pu� notare come H(p1,…,pn) sia massima per
pj =
. Fissato = ∑
jxjpj, l’entropia � massimizzabile utilizzando i moltiplicatori di
lagrange:
|
il che implica - ln pj + λxj = 0, con soluzione
(2.3) |
con λ ≃- (risultato fondamentale della meccanica statistica). La distribuzione � quindi
esponenziale, con pj ∝ e-
.
Si consideri una sequenza (codifica) {xk}1N: si pu� assumere P({x k}) = p(x1)...p(xN). Una codifica � detta ottimale se pu� descrivere in maniera univoca un’orbita.
Si nota subito come pi� un valore della variabile di coding � probabile, minor informazione questo porti. Informaticamente, la misura � circa il numero di bit necessari per memorizzare la sequenza (da qui il fattore ln 2 dell’entropia di Shannon). L’equazione 2.2.1 rappresenta quindi l’informazione media portata da un singolo carattere. Non bisogna confondere entropia con informazione: la variabile deve avere un significato! Data l’indipendenza dei caratteri, si pu� scrivere l’entropia di una coppia come
|
Iterando il ragionamento si giunge alla conclusione che l’entropia di Shannon misura l’aumento di informazione data dall’aggiunta di un carattere.
Si � analizzato finora il caso di caratteri indipendenti gli uni dagli altri. Tuttavia, per
comprendere una sequenza bisogna, in generale, conoscerne la memoria, ossia tutte le
dipendenze di un evento dagli altri. Formalmente, ci� vorrebbe dire che, dati due eventi A
e B, P = P
P(A)≠P(A)P(B). Si pu� facilmente osservare come
lim N→∞
= P
, dove N rappresenta il numero totale di eventi. L’irreversibilit�
di un evento si ha quando la coppia di eventi AB � diversa dalla coppia di eventi
BA.
La matrice stocastica ha per definizione le seguenti propriet�:
0 ≤ pij ≤ 1
∑ jpij = 1
Questa matrice � molto importante, essento intrinsecamente legata alla probabilit� condizionata, ed � alla base di ogni problema di trasporto. Si consideri ora una sequenza infinita e sia pi la probabilit� di avere l’elemento xi in quella posizione. Qual � la probabilit� pj di avere l’elemento successivo? Sia n il numero di passi per arrivare in posizione i, allora:
(2.4) |
Risulta quindi utile il seguente teorema:
Corollari:
pjs � un vettore stazionario situato nel primo quadrante
l’iperpiano ∑ i,jpijvi = ∑ ivi = 0 sono invarianti per pij
λi < 1 ∀i≠0
pjn+1 = ∑ ipijpjn = 1 ⇔∑ ipin = 1
A questo punto si pu� calcolare come cambi quantitativamente l’informazione di una catena aggiungendo un carattere.
Definizione 2.3.4. Propriet� di Markov (di tempo presente)
P({x1,...,xn+1}) = P(xn+1∕Pxn)P({x1,...,xn})
Si pu� quindi calcolare l’entropia dell’(N+1)esimo passo
|
ottenendo, nel limite N >> 1, l’espressione:
(2.5) |
Nei linguaggi l’aggiunta di un carattere non cambia di molto l’entropia (per fortuna, altrimenti sarebbe molto difficile parlarsi, ndr). Questa entropia fornisce tuttavia un’importante risultato sulla reversibilit� del processo: se invertendo il tempo non ho differenza di entropia, allora il processo � reversibile, altrimenti no. Le fluttuazioni di un sistema all’equilibrio sono sempre un processo reversibile, infatti osservando tale sistema non si riesce a distinguere tra passato e futuro. Come esempio per giustificare la precedente affermazione si pu� prendere un pendolo fisico in assenza di attriti/forse esterne, oppure un moto browniano. Un esempio grafico puo� essere rappresentato dalla Fig.(2.1).
Associando la matrice
|
si ha eguale probabilit� di transizione in ogni direzione ammessa dal grafo. L’evoluzione temporale � data da
|
e si verifica facilmente che il sistema � reversibile con distribuzione stazionaria
|
Considerando invece la matrice
|
si aumenta la probabilit� di percorrere il triangolo in senso antiorario. Essendo la distrubuzione stazionaria identica al caso precedente si pu� studiare la reversibilit� con il bilancio dettagliato:
|
Secondo Onsager, la distribuzione stazionaria corrisponde all’equilibrio quindi,
analizzando le fluttuazioni � possibile capire se il sistema sia reversibile o meno.
Nell’esempio riportato in Fig. (2.1) � evidente come la rimozione del punto A non
influenzi il sottosistema BC: � questo l’equilibrio dettato dal bilancio dettagliato.
In conclusione, la teoria dell’informazione � applicabile quasi in ogni ambito.
Sono stati effettuati studi sui linguaggi, premiando finlandese e tedesco come
lingue pi� entropiche, e studi sulla musica, che vedono Bach meno entropico di
Hindemith.
Sia xn = 2n un numero, con n ≥ 1. Qual � la probabilit� che esso abbia un 7 come prima
cifra?
Supponendo 2n = 7.× 10k, allora log 2n = log 7.
+ k. Si consideri ora la
dinamica
(2.6) |
che rappresenta sostanzialmente una traslazione nell’intervallo [0, 1]. In questo caso l’esponente di Ljapunov � nullo in quanto non vi � espansione. Iterando la 2.6 si ottiene
|
e la misura invariante risulta quindi una distribuzione uniforme nell’intervallo [0, 1]. Da qui la probabilit� lim n→∞P(7) = log 8 - log 7.
Supponiamo di possedere un mazzo di N carte differenti e di pescare da esso k ≤ N carte. Per calcolare l’entropia di informazione associata alla mano pescata, bisogna innanzitutto calcolare la probabilit� di una mano singola. Le combinazioni di k carte di un mazzo di N carte sono date dal coefficiente binomiale:
(2.7) |
Assumendo che il mazzo non sia truccato, quindi che ogni estrazione sia equiprobabile, la
probabilit� di ogni singola mano � pi = . L’entropia di informazione (o di Shannon)
associata ad essa � quindi
|
con kS = costante di Shannon.
Si consideri un segmento di lunghezza unitaria nel quale viene inserito casualmente un
punto x1 ∈ [0, 1] secondo una distribuzione uniforme. Si scarti ora il segmeno [0,x1] e si
iteri il processo per N volte: si tratta di un processo ricorsivo con memoria del passato.
Essendo la distribuzione di probabilit� uniforme risulta ovvio come < x >= quindi �
possibile riscalare il tutto con una variabile y →
Definita la densit� ρ del sistema si pu�
scrivere:
|
Il risultato � una legge a potenza con α = -1, quindi non normalizzabile in quanto l’integrale diverge. Il sistema ha un effetto di memoria assoluta: una volta tagliato il segmento non � possibile riattaccarlo. Se il segmento non venisse tagliato si otterrebbe un andamento a potenza con α ≥ 1 e risulterebbe pertanto normalizzabile. Un’utile applicazione dei modelli di Markov si trova nel linguaggio (verbi) e in biologia (DNA).
Si prenda una moneta e la si lanci all’infinito. Si vuole scommettere con un’altra persona su una terna di uscite consecutive dai lanci e ci si chiede come si possa vincere pi� facilmente. Analizzando attentamente il problema si pu� notare come l’uscita delle sequenze non sia casuale ma segua un percorso ben preciso: l’unica sequenza casuale � quella data dalle prime tre uscite.
In questo modo risulta abbastanza semplice fregare l’ avversario: facendolo
scegliere per primo, � sempre possibile scegliere una sequenza pi� probabile della
sua.
Eseguendo i calcoli si nota subito come la probabilit� stazionaria del sistema sia data da
3 =
= 12.5%. Scegliendo per secondi si vince sempre a meno che la sequenza
dell’avversario non esca dai primi tre lanci, quindi eseguendo i calcoli sulle probabilit� si
ottiene la seguente tabella:
1st player’s choice | 2nd player’s choice | 2nd player’s winning chance | |
HHH | THH | 87.5% | |
HHT | THH | 75.0% | |
HTH | HHT | 66.7% | |
HTT | HHT | 66.7% | |
THH | TTH | 66.7% | |
THT | TTH | 66.7% | |
TTH | HTT | 75.0% | |
TTT | HTT | 87.5% | |
Nel primo e nell’ultimo caso si nota facilmente come la vittoria sia certa ammesso che
non esca la tripletta scelta dal giocatore 1. Essendo la probabilit� stazionaria ,
P1,8 = 1 -
3 =
.
Nel secondo e nel penutlimo caso si pu� ragionare in modo analogo al caso precedente,
ottenendo P2,7 = 1 -2 =
.
In tutti gli altri casi la probabilit� � data da P3,4,5,6 = +
P(player1)… =
∑
n=0∞
n =
.
Consideriamo due punti (A e B) di un generico spazio e colleghiamoli con un canale immaginario, facendo riferimento alla Fig.1, possiamo definire il flusso ΦA→B di una quantit� fisica trasportata nell’unit� di tempo tra i due punti.
Definiamo V A∕B una certa propriet� del nodo A∕B, questa propriet� ne definisce lo stato. Possiamo quindi scrivere una sorta di legge di Ohm per la situazione descritta
|
dove R � una propriet� del link (ad es. la portanza di una strada ma anche la probabilit� di transizione). Osserviamo che � di notevole importanza la dimensione del link (L) in quanto se attraversiamo il link abbiamo un flusso Φ, di conseguenza la capacit� del sistema di trasporto richiede ΦL di “veicoli".
Il problema alla base del modello di Hopfield consiste nel far memorizzare al network un insieme di p patterns ξiμ in modo tale che se presento un nuovo stato ζ i il network mi restituisce il pattern che pi� si avvicina a ζi. Etichettiamo ogni pattern con l’indice μ = {1,…,p} e le unit� del network (neuroni) con l’indice i = {1,…,N}.
Definizione 3.2.1. (Distanza di Hamming) La distanza di Hamming tra due pattern rappresenta il numero di bit che li differenzia tra loro.
|
Denotiamo lo stato dei neuroni con Si = �1 (+1 se il neurone � attivo e -1 se � inattivo). La dinamica discreta del network si pu� scrivere come
(3.1) |
con Δt = 1. La matrice wij � la matrice dei pesi delle connessioni tra neuroni i → j ed ha le propriet� di essere una matrice simmetrica (wij = wji) ed avere gli elementi sulla diagonale tutti nulli (wii = 0). Per questo tipo di dinamica i pattern memorizzati risultano essere degli attrattori Fig. 6.
Per motivare la scelta dei pesi delle connessioni consideriamo un caso semplice in cui abbiamo soltanto un pattern. La condizione per la quale il pattern risulta stabile �
(3.2) |
che risulta essere vera se definiamo la matrice dei pesi come segue
(3.3) |
infatti ξj2 = 1. Ne deriva che se considero uno stato di rete S
i che differisce di qualche bit
dal pattern che ho inzialmente mostrato al network, lo stato evolver� con la dinamica in
equazione (3.1) e rilasser� a ξi. Tuttavia esiste un altro stato attrattivo: lo stato opposto
(-ξi).
Il discorso pu� essere esteso anche al caso molti pattern? In tal caso possiamo
ridefinire la matrice dei pesi come sovrapposizione delle matrici associate ad ogni
pattern
(3.4) |
questa � spesso chiamata regola di Hebb. Esaminiamo la stabilit� di un particolare pattern, la condizione di stabilit� generalizzata risulta
(3.5) |
imponiamo Sj = ξjν
(3.6) |
cio� i patterns devono soddisfare alla condizione di ortogonalit� e sotto questa condizione si ha che la distanza di Hamming � massima. Cosa succede se i pattern memorizzati non sono tutti ortogonali tra loro? Consideriamo la quantit�
(3.7) |
l’espressione tra parentesi la chiamiamo termine di crosstak. Se Ciν � negativo allora il termine di crosstalk ha lo stesso segno di ξiν quidi non abbiamo un cambiamento dello stato, al contrario se Ciν > 0 abbiamo un flip dello stato del nodo. Ipotizziamo che i pattern siano variabili casuali a media nulla e varianza unitaria, quindi � possibile applicare il teorema del limite centrale e ∑ μ≠νξiμξ jμξ iν → z � una variabile gaussiana Fig. (3.5):
= 0
= Np
Allora ha varianza σ =
� anche possibile stimare la probabilit� di errore come
(3.8) |
Introduciamo anche qui il concetto di funzione energia o hamiltoniana del sistema per analogia con il Modello di Ising, trattato nelle sezioni precedenti. Facendo quindi riferimento all’equazione (1.4):
(3.9) |
un esempio di possibile landscape energetico pu� essere immaginato come in Fig. (3.6). La propriet� principale dell’hamiltoniana (3.9) � quella di essere sempre decrescente (o costante) se il sistema evolve secondo la dinamica deterministica. � facile verificare questa affermazione: prendiamo Si′ un nuovo valore di S i
(3.10) |
se Si′ = S i l’energia rimane immutata mentre, negli altri casi Si′ = -S i scegliamo un termine che coinvolge Si
(3.11) |
i due termini risultano essere entrambi negativi.
Abbiamo mostrato che la regola di Hebb ci fornisce un sistema dinamico discreto che possiede degli attrattori ricercabili anche attraverso i minimi locali della funzione energia. Non abbiamo per� mostrato che questi attrattori sono gli unici. Infatti, per ogni attrattore ξiμ esiste anche l’inverso, anch’esso attrattore -ξ iμ. � possibile mostrare che esistono degli stati stabili detti stati misti ξimix che non coincidono con nessun pattern ma rappresentano una combinazione lineare di un numero dispari di essi, nel caso pi� semplice:
(3.12) |
Esiste anche un altro tipo di stati stabili che si verificano quando p � abbastanza grande rispetto ad N, questi stati non sono correlati in alcun modo con altri patten memorizati e sono chiamati stati vetro di spin. Questi ultimi due tipi di stati sono detti stati spuri.
Nel Modello di Hopfield viene introdotto un concetto analogo a quello di temperatura, intesa come disordine termico, per tenere conto delle fluttuazioni dovute a varie cause non controllabili. Si tratta pi� propriamente di una pseudo-temperatura, in quanto non ha nulla a che fare con le dimensioni fisiche n� con il significato fisico di una temperatura. Spesso si lavora con la temperatura inversa β definita da
(3.13) |
Come nel Modello di Ising, anche nel Modello di Hopfield l’evoluzione del sistema � quindi governata dalla competizione tra la presenza di un campo esterno, che tende ad allineare gli stati delle unit� e prevale per basse temperature, e l’effetto del disordine termico che prevale ad alte temperature. Per tenere conto delle fluttuazioni, occorre introdurre una dinamica stocastica, valida per temperature finite, che si riduce alla di- namica deterministica esposta fin’ora nel limite T → 0. Ci� pu� essere fatto mediante la Dinamica di Glauber, sostituendo la regola dinamica deterministica (3.1) con la regola dinamica stocastica di Glauber. Ad ogni step temporale verr� aggiornata secondo
(3.14) |
con
(3.15) |
che pu� essere riscritta come (Fig. 9)
(3.16) |
Per β →∞, ovvero T → 0, fβ tende alla step function che descrive la regola dinamica
deterministica, mentre per β → 0, ovvero T →∞, fβ →, ovvero gli stati delle unit� sono
completamente randomici. Notando che 1 -fβ(hi) = fβ(-hi), la regola dinamica stocastica
pu� essere scritta come
(3.17) |
La teoria del controllo � quella branca della fisica che studia come controllare i sistemi dinamici. L’obiettivo principale � quello di creare un controllo, ossia un modello/algoritmo, in grado di portare un sistema dinamico in un determinato stato dato uno stato iniziale (in input).
Definizione 4.1.1. Il modello � detto ottimale quando si � raggiunto un buon livello di stabilit�, minimizzando i riratdi e gli errori.
Il dispositivo che gestisce il sistema dinamico � detto controllore e va selezionato accuratamente in base alle richieste del sistema da gestire. Formalmente il controllo viene immesso nel sistema attraverso una forzante che, aggiunta alla lagrangiana, permette lo studio e l’ottimizzazione del problema. Per maggiori informazioni sulla meccanica analitica � possibile consultare gli appunti delle lezioni al link https://github.com/Grufoony/Fisica_UNIBO/blob/main/Appunti_meccanica_analitica.pdf.
Si supponga ora di voler studiare un sistema biologico quale, ad esempio, il cuore umano.
Il battito cardiaco stilizzato in Fig 4.1 suggerisce un modello in cui:
il sistema abbia un equilibrio (al quale ritorna periodicamente)
esiste una soglia trigger di un’onda
L’idea � ridurre la cellula cardiaca ad un sistema complesso a due variabile, x per la lunghezza della fibra e b per lo stimolo elettrochimico da associare ad essa (controllo elettrico). Il modello di Zeeman � rappresentato dal sistema
(4.1) |
in cui la prima equazione ricorda l’equazione logistica (Eq. 1.1). Il fattore infinitesimo ϵ garantisce una scala di evoluzione rapida.
L’equilibrio stabile si ha sulla nullclina = 0, quindi per x = x0 e b = -x3 + Tx, il cui
grafico � riportato in Fig. 4.2 I punti A e B sono ovviamente i punti critici del sistema: la
parte di curva compresa tra i due punti non � esplorabile in quanto da B � solo
possibile ricadere sul ramo di A e viceversa. Questa � l’idea della catastrofe di
Zeeman, ove per A < b < B perdo l’invertibilit� del sistema. Se si � in presenza
di uno stimolo ad onda quadra che riesce a spostare il sistema oltre il punto B
(facendolo quindi ricadere su A) si ha la contrazione (sistole e diastole, vedi Fig. 4.3)
Volendo ora dimostrare formalmente la stabilit� del punto di equilibrio (x0,b0) � conveniente lavorare in un intorno di esso:
|
Linearizzando il sistema
|
ei ottiene la matrice
|
con determinante > 0. Data la presenza di un quadrato la stabilit� non dipender� dal
segno di x0 quanto dal suo modulo. Il determinante positivo implica autovalori entrambi
positivi o entrambi negativi: si avranno autovalori positivi, quindi un punto instabile, se la
traccia � positiva e viceversa. Si assuma ora di voler introdurre una funzione periodica
x+(t) di periodo sufficiente per effettuare il “salto”.
|
Ora � possibile accoppiare due cellule cardiache come segue
|
con x(0) ≃ x0 e y(0) ≃ x1 punti di equilibrio. Per fare in modo che il sistema sostenga l’onda (senza il bisogno di uno stimolo esterno) � necessario un accoppiamento in controfase, ossia quando la cellula x � in contrazione la y � in dilatazione e viceversa. Creando una catena di questi oggetti � possibile quindi generare un fenomeno d’onda.
L’esempio pi� classico di sistema controllabile � dato dal pendolo rovesciato.
Siano xC(t) la coordinata del controllore, xO(t) la coordinata del pendolo di lunghezza l e θ l’angolo formato da esso con la verticale. Utilizzando la meccanica lagrangiana:
|
|
La lagrangiana del sistema si pu� scrivere come:
|
alle piccole oscillazioni (θ ≃ 0 e mgl cos θ ≃-mgl):
|
L’equazione del moto risulta infine:
(4.2) |
Riconosciuta la forzante, per semplicit� si pone ẍC = �a(t) costante. La soluzione non � omogenea:
|
Assumendo ora θ0 ≃ 0 e 0≠0 e che il pendolo si stabilizzi in un tempo T si ha la soluzione
stabile:
|
Si pu� ora ricavare la condizione richiesta:
(4.3) |
Andando a imporla si ottiene:
|
Da cui si pu� ricavare il periodo di stabilit�:
(4.4) |
Un’osservazione importante riguarda la condizione critica del sistema, ove esso non risulta
pi� controllabile, che si ha quando 0 =
.
Si supponga ora di voler controllare una relazione con un’altra persona, che tipo di relazione conviene studiare? La scrittrice Anna Karenina sembra fornire una soluzione al problema, constatando che tutte le relazioni felici sono uguali ma ogni relazione infelice lo � a modo suo. Sia ora x(t) il grado di felicit� nella relazione che, per semplicit� si assume positivo (x(t) ∈ ℝ+) in accordo con l’ipotesi della Karenina. L’equazione che descrive la relazione sar� del tipo:
(4.5) |
in cui riconosciamo la funzione costo c(t) della relazione (ove per costo si intende uscire a
cena, fare un regalo, ecc...),il parametro r (quanto la felicit� tenda a diminuire) e il
parametro a (amplificazione del costo). La relazione giunger� al termine una
volta arrivati ad un valore minimo della felicit�, che verr� denotato come xm.
Per rafforzare il modello si introducono ora due potenziali:
U(x), utility potential, il quale indica quanto funziona la coppia. Esso deve essere tale che U′(x) > 0 ma U′′(x) < 0, in quanto troppa felicit� tende a saturare la relazione;
D(c), disutility potential, il quale tiene conto dello sforzo eseguito. Pi� il costo del mantenimento della relazione aumenta, pi� essa tende a fallire (non ne vale la pena). Ovviamente D(c) deve avere un minimo, dato che esiste uno sforzo considerato accettabile per mantenere la relazione;
Si pu� ora definire il funzionale di soddisfazione come:
|
dove il coefficiente λ-1 rappresenta la scala di memoria del sistema.
Per ottimizzare il problema si deve avere
|
e quindi la variazione infinitesima del funzionale
|
Integrando per parti:
|
e quindi
|
Essendo δx arbitrario
|
Si assumano ora, per esempio, i seguenti potenziali
(4.6) |
che forniscono il seguente sistema (equilibrio instabile):
(4.7) |
Le orbite risultanti sono riportate in Fig.(4.5), dove si possono distinguere due strategie:
STRATEGIA A: si segue un’orbita γA dai punti A → A′ poi si fa una decrescita discontinua lungo una c(t) da A′→ A. Sostanzialmente si spende molto per la relazione (nei termini visti in precedenza) poi, una volta divenuto intollerabile il costo, si fa una bella litigata e si ricomincia il ciclo;
STRATEGIA B: si segue un’orbita γB dai punti B → B′ poi si fa una crescita discontinua lungo una c(t) da B′ → B. In questo caso si lascia andare la relazione senza apportare sufficiente sforzo poi, ad un passo dalla rottura, si rimedia il tutto con un gesto importante (alto costo) per ristabilire l’orbita.
In entrambi i casi bisogna, tuttavia, prestare parecchia attenzione una volta raggiunti i minimi: se lungo la γA si fa una litigata troppo pesante o lungo la γB si trascura troppo la relazione, si rischia di finire fuori orbita (quindi fuori equilibrio) e far cos� fallire la relazione (il che � no buono, n.d.r.).
Un’altra applicazione biologica � rappresentata dal modello per il neurone di Fitzhugh-Nagumo, basato sull’oscillatore di Var der Pol. Definite x potenziale di membrana e w la corrente, il modello consiste nelle equazioni differenziali:
(4.8) |
con << 1 in modo da avere x variabile veloce e w lenta. Anche in questo caso si ottiene
una nullclina simile a quella rappresentata in Fig. 4.2.
La stabilit� all’equilibrio � data da:
|
Si pu� verificare come esiste (e sia unico) un punto di equilibrio stabile P quindi, assumendo di aver trovato la risoluzione al sistema, � possibile linearizzare il campo
|
riscrivibile come matrice
|
che ha determinante - +
. La stabilit� si ha per un modulo sufficientemente
grande di xP (anche se xP → 0 al crescere di I) mentre l’instabilit� si ha per b < 1. Lo
stimolo � rappresentato da una variazione della I che, se abbastanza rapida, permette di
percorrere la nullclina.
Il sistema � non caotico ma con derivate di ordine diverso (Stiff). Si assuma I(t) = Δxδ(t),
allora x(0+) = x
0 + Δx se x(0-) = x
0, quindi se Δx supera una determinata soglia si ha
una grande fluttuazione. Per (x,w) abbastanza grandi � possibile definire la funzione di
Ljapunov
(4.9) |
costante che rappresenta un’ellisse. La derivata della funzione di Ljapunov � negativa quindi la dinamica non � espansiva e il sistema non pu� esplodere: si arriva cos� ad una biforcazione di Hopf, ossia si parte da una situazione attrattiva rispetto al punto fisso e, passando attraverso una situazione repulsiva (grazie ad un parametro) si arriva ad un ciclo limite, quale traiettoria periodica di un attrattore dinamico.
Un’applicazione interessante dei sistemi complessi riguarda l’ambito urbano (e sociale). Uno
dei primi problemi affrontati storicamente � il problema del traffico. Tante auto si muovono
su un network, ognuna delle quali tende a mantenere una velocit� ottimale in base alla
macchina che la precede: questa dinamica viola la terza legge di Newton in quanto
non � detto che la macchina che sta dietro influenzi quella davanti. Le onde di
traffico si vengono a creare a causa dei tempi di reazione degli automobilisti (mai
istantanei). Nonostante la creazione di queste onde, il flusso di auto sulla strada rimane
costante.
Osservando dati sperimentali riguardanti le velocit� si nota un appiattimento ad alte
densit� della curva, dunque il tutto satura ad una velocit� media fissa. Posto j come indice
di un veicolo, un modello stile Newton obbedisce a:
(5.1) |
Il parametro β � proporzionale all’accelerazione ma l’equazione di secondo ordine implica
un’equazione di prim’ordine con ritardo (tempo di reazione). Se β � molto basso allora si
creano onde solitoniche e ogni plateau dell’onda corrisponde ad un equilibrio del sistema.
Questo sistema statistico crea un equilibrio dinamico, perch� dinamicamente si ha
qualcosa che si propaga nel sistema, che contiene un equilibrio dove le auto vanno
veloce e uno dove le auto vanno lente. Quando il sistema non riesce a mantenere
l’equilibrio globale, si formano degli equilibri a livello locale. Normalmente, infatti, si
osserva che aumentando il numero di auto in una strada il flusso stesso aumenti
fino ad arrivare ad una situazione di instabilit�: esiste quindi un valore critico di
densit� superato il quale il flusso inizia a diminuire e il sistema non riesce pi� a
rispondere al flusso immesso, dando luogo al flusso stop&go e creando l’onda
solitonica.
Un fundamental diagram � un concetto molto utilizzato nelle reti di trasporto: in questo il
punto critico di densit� risulta un massimo. Tuttavia, il meccanismo di stop&go si
innesca molto prima che il sistema giunga a questo massimo La geometria del
sistema � fondamentale, in quanto descrive come esso smorzi/sostenga le oscillazioni
delle sorgenti. In autostrada, ad esempio, le congestioni (variazioni della velocit�
media) si hanno nei punti di immissione, poi si propagano come onde solitone. Vi
� inoltre un’alta sensibilit� alle fluttuazioni, in quanto ogni persona guida in
modo differente, la cui ampiezza aumenta con la densit� seguendo un regime
poissoniano (maggiore il valore medio maggiori le fluttuazioni). Per arrivare al flusso
ottimale bisogna diminuire la fluttuazioni, quindi raffreddare il sistema (auto a guida
autonoma).
Una proposta di Tom Tom utilizza la velocit� media come osservabile macroscopico: la
velocit� media delle auto in citt� � tuttavia molto bassa, a causa delle soste forzate, mentre
la mobilit� ciclistica risulta decisamente pi� alta.
Si consideri ora un network in cui ogni nodo � o sorgente o destinazione (tipico di aeroporti
e stazioni ferroviarie). Senza considerare la dinamica del singolo veicolo, si assuma poi che
ogni link riesca a trasportare, quindi che abbia capacit� infinita (cosa non assumibile nel
caso delle automobili). Cosa accade agli incroci?
Se si assumono nodi a capacit� finita allora la congestione si ha quando un nodo diminuisce
la capacit� di creare trasporto. Sia ni il numero di agenti presenti nel nodo i. Una volta
fornito un peso al link la domanda di mobilit� dipender� da n e dal flusso tra i nodi i e j.
Si pu� calcolare la probabilit� di transizione i → j come πijni: questa risulta proporzionale
al numero di agenti, quindi maggiore � ni maggiore � la probabilit� che questi si
allontanino dal nodo i. Fisicamente questo ricorda un reticolo cristallino con elettroni ai
nodi: un elettrone pu� transire da un nodo ad un altro solo se la destinazione �
vuota.
Fondamentale ora introdurre una legge di continuit� (ossia una corrente), in quanto un
nodo non pu� trasmettere oltre la sua popolazione:
(5.2) |
dove di indica la capacit� di trasmissione (numero di agenti in uscita). Si richiede dunque
che i flussi siano sempre positivi e che il numero di particelle sia conservato.
Si assuma ora che la velocit� di percorrenza sia dipendente dal numero di agenti presenti,
quindi
|
dove Lji = djδji -πji � una matrice laplaciana. Le matrici laplaciane possiedono le seguenti propriet�:
Lji < 0 se j≠i
∑ iLji = 0
Ljj > 0
Si nota facilmente come nella matrice laplaciana gli elementi sulla diagonale principale
descrivano la capacit� di trasporto del sistema, mentre gli elementi esterni alla
diagonale descrivano i link. Le matrici laplaciane rappresentano di fatto leggi di
bilancio di massa, ossia descrivono la mobilitazione da un punto ad un altro del
network.
Un sistema di questo tende a rilassare ad un equilibrio: aumentando il numero di agenti in
un nodo aumenter� anche la sua capacit� di farne uscire. Un sistema lineare infatti �
insensibile al numero di particelle inserito ma � sensibile a un flusso in entrata variabile: in
questo caso il sistema non pu� rilassare e la sua soluzione dipende dalla velocit� di
variazione del flusso in entrata.
La terza propriet� della matrice laplaciana garantisce l’integrale del moto
|
mentre la seconda garantisce che tutti gli autovalori (eccetto uno che � di certo nullo) siano
positivi. La dinamica risulta attrattiva verso lo stato di equilibrio, situato evidentemente
nel primo quadrante. Le propriet� spettrali forniscono il tempo impiegato dal sistema per
rilassare.
In generale, si pu� imporre la congestione con πij = πij(ni). Un risultato simile � ottenibile
anche utilizzando la funzione logistica, vedi eq. 1.3, utiizzandola come funzione che lega il
numero di particelle al peso: all’aumentare di n il peso deve ridursi. In questo caso la
congestione non si avr� inizialmente ma si creer� rapidamente dopo un certo lasso di
tempo.
La congestione in un nodo si propaga facilmente anche ai nodi adiacenti: � dunque possibile
creare effetti a cascata che si ripercuotano sul network intero, creando cos� una dinamica
all’indietro.
Per un sistema non lineare a molti gradi di libert� il carico determina la dinamica, quindi il
parametro di controllo � il numero di agenti caricato nel sistema.
|
I problemi di un tale sistema sono:
studiarne gli stati di equilibrio, il cui numero aumenta con le dimensioni
studiare cosa accade per fluttuazioni (ossia N = N(t))
studiare network πij differenti per evitare le congestioni
ottimizzare il flusso totale Φ = ∑ ijπ(ni)nj
Tuttavia, per modificare i pesi � necessario trovare dei parametri di controllo, cosa per niente
banale.
Spesso una congestione non pu� essere evitata quindi si tende a gestirla, ossia si cerca di
riportare la rete in una situazione di trasporto.
Nel caso lineare la soluzione stazionaria � semplicemente il vettore che indica quanti agenti
porre nei vari nodi = (n1,…,nN) che soddisfi la condizione
|
Le fluttuazioni sono inseribili nel sistema sotto forma di random walk, aggiungendo un
parametro temperatura. Scelto un passo temporale, la transizione i → j avr� probabilit�
πijΔt di avvenire. La probabilit� di non muoversi in una determinata direzione � data
da 1 -∑
jπijΔt. Il passo Δt diventa quindi il tempo di evoluzione del sistema
(tipicamente piccolo): imporre la linearit� rispetto ad esso evita processi non regolari
(stocastici).
Una volta trovato l’autovalore nullo L = 0, la probabilit� di trovare la rete in un
determinato stato � data da
(5.3) |
L’OVM � un modello ad agente basato sulle seuguenti equazioni differenziali:
(5.4) |
dove la seconda equazione deriva da ẋi(t + τ) = ẋi(t) + ẍi(t)τ + o(τ2).