appunti dal corso di

____________________________________________________________________________________________________________________________________________

introduzione alla fisica
dei sistemi complessi

____________________________________________________________________________________________________________________________________________

berselli gregorio lanzi samuele
barbieri matteo farné gabriele
https://github.com/Grufoony/Fisica_UNIBO

Indice

1 Introduzione
1.1 Sistema Complesso
1.2 Teoria di Ljapunov
1.3 Costruzione di un modello
1.3.1 Modelli ad agente
1.3.2 Modelli a equazioni
1.4 Distribuzioni
1.5 Esempi
1.5.1 Automa cellulare
1.5.2 Random Walk 1D
1.5.3 Random Walk 2D
1.5.4 Random Walk non omogenea
1.5.5 Dinamica generica di interazione
1.5.6 Catmap
1.5.7 Modello economico
1.5.8 Modello economico evoluto
1.5.9 La rovina di un giocatore
2 Entropia e Informazione
2.1 Probabilitá
2.1.1 Ranking distribution
2.2 Entropia
2.3 Informazione
2.3.1 Matrice stocastica
2.3.2 Teoria di Markov
2.4 Esempi
2.4.1 Utilizzo della misura invariante
2.4.2 Entropia di una mano di carte
2.4.3 Broken Stick Model/Modello di Markov
2.4.4 Penney’s game
3 Modelli di trasporto
3.1 Teoria
3.2 Reti neurali di Hopfield
3.2.1 La Dinamica Deterministica
3.2.2 La Funzione Energia
3.2.3 La Dinamica Stocastica
3.3 Esempi
4 Teoria del controllo
4.1 Approccio generale
4.2 Applicazioni biologiche
4.3 Esempi
4.3.1 Pendolo rovesciato
4.3.2 Marriage Model/Modello relazionale
4.3.3 Modello di Fitzhugh-Nagumo
5 Altre applicazioni
5.1 Fisica della cittá
5.1.1 Modelli di traffico
5.2 Esempi
5.2.1 Optimal Velocity Model

Capitolo 1
Introduzione

1.1 Sistema Complesso

Definizione 1.1.1. Sistema Complesso é un sistema dinamico composto da sottosistemi interagenti tra loro, chiamati agenti.

Per lo studio di un sistema complesso si usa solitamente un approccio olistico, ossia si studiano prevalentemente le proprietá macroscopiche del sistema totale, senza considerare i singoli sottosistemi. Un’osservazione importante che va effettuata é che un modello di sistema complesso prevede, non descrive.

Definizione 1.1.2. Lo spazio degli stati dinamici del sistema é detto spazio delle fasi.

Definizione 1.1.3. I gradi di libertá di un sistema sono dati da #d.o.f. = dimensionedellospazio
        2

Per un numero elevato di gradi di libertá é possibile utilizzare l’approccio della meccanica statistica. Alcune delle proprietá principali dei sistemi complessi sono:

La complessitá dei sistemi fa si che per definirne uno stato occorra molta informazione. Ogni sistema complesso fornisce un feedback rispetto alle condizioni inziali che sono fornite. In particolare, si parla di feedback positivo se le condizioni iniziali portano il sistema a "esplodere", ossia ad allontanarsi inesorabilmente dall’origine, mentre si parla di feedback negativo quando dopo un certo periodo di tempo il sistema ritorna alle condizioni iniziali.

Definizione 1.1.4. Un sistema a feedback negativo é detto in equilibrio dinamico.

1.2 Teoria di Ljapunov

In un sistema classico, una volta scritta la lagrangiana (o hamiltoniana) del sistema e ottenute le equazioni del moto, é cosa fatta determinarne l’evoluzione nel tempo (traiettorie). Nei sistemi complessi, tuttavia, non é possibile utilizzare un approccio deterministico: si parla infatti di caos deterministico. Questo caos é causato soprattutto dalle fluttuazioni intrinseche dei sistemi complessi, le quali li rendono particolamente sensibili alle condizioni iniziali. Si consideri sistema alle condizioni iniziali x0. Dopo un tempo t, si troverá naturalmente il sistema in una posizione x(t) determinata dalle condizioni iniziali. Si assuma ora la presenza di fluttuazioni sulle condizioni iniziali x0 + δ0: il sistema evolverá ora come x(t) + δ(t). La teoria vuole che le fluttuazioni seguano l’andamento

         λt
δ(t) ≃ δ0e

dove il coefficiente λ é detto esponente di Ljapunov. Il calcolo di questo parametro non é banale, pertanto non verrá dimostrato ma solo riportato.

Teorema 1.2.1. λ = lim δ0,t→∞1t ln ∥Φt (x + δ) - Φt (x)∥

Nonostante il limite precendente appaia complicato, nella maggior parte dei casi é possibile utilizzare l’approssimazione λ 1
 t k ln δk-
δ0, dove k indicizza una traslazione temporale Δt. Per comprendere i limiti dell’approssimazione precedente si puó notare come δ0eλt = o(1), quindi ln δ 0 + λt = 0.

Definizione 1.2.1. t = -lnδ0
 λ tempo di predittivitá del modello

Si puó notare come:

Non é possibile conoscere a priori il segno di λ. Il caos deterministico, ovviamente, si ottiene solo se λ > 0 (l’esponenziale esplode) in un insieme a misura finita. Ne consegue che le orbite debbano espandersi rimanendo limitate, fenomeno noto come stretching-folding, che comporta la conservazione di una misura (volume).

Teorema 1.2.2. di Poincaré (del ritorno)
Un sistema dinamico che conserva i volumi su un compatto ritorna arbitrariamente vicino alle condizioni iniziali (feedback negativo).

1.3 Costruzione di un modello

Punto fondamentale di un sistema complesso é costruire un modello che riesca a riprodurre le sue caratteristiche fondamentali, per poi studiarlo. Innanzitutto, per prevedere un sistema occorre:


POMCPrsoaaDosdrribeeaavlrltmeevltermaoetsazrriiii sodscnitediidniciahrei
Pnsroipecnnrtduotieinnemozitcrerivroeniaoeomstnrlpsaislaelaotiliibili
Figura 1.1: Schema operativo


In Fig.(1.1) é presente lo schema operativo della creazione di un modello. Il punto di partenza é sempre un problema, la cui osservazione sperimentale fornisce i dati sui quali costruire un modello di teoria . Con esso é poi possibile eseguire delle predizioni da confrontare con i dati sperimentale per comprenderne l’affidabilitá e gli eventuali scenari incompatibili. Ovviamente un buon modello teorico deve avere dei parametri manipolabili (di controllo) e caratteristiche valide universalmente.
Si possono distinguere due tipologie di modelli, le quali verranno ora analizzate.

1.3.1 Modelli ad agente

La prima tipologia di modello sono i modelli ad agente, ossia quei modelli in cui si effettua uno studio di tipo bottom-up (dal particolare al generale). Assunzione fondamentale é di avere piena conoscenza sui comportamenti dei singoli agenti e sull’ambiente in cui questi si relazionano. Una volta formalizzati matematicamente i comportamenti dei singoli é possibile procedere con una simulazione, la quale fornirá una possibile evoluzione del sistema. È essenziale notare come in questo caso il risultato ottenuto sia solamente uno dei tanti possibili: bisognerá quindi effettuare la simulazione numerose volte e mediare sui risultati ottenuti. Riguardo la costruzione del modello, la prima cosa da definire é l’ambiente in cui ci si trova. Questo puó essere neutro o avere caratteristiche, ad esempio una distribuzione di nutrimento (per sistemi biologici). Altro punto fondamentale é definire spazio e tempo. Spesso non fa differenza la scelta di spazi e tempi discreti rispetto ai continui, quindi é preferibile assumere una discretizzazione iniziale per poi passare al continuo successivamente. Una volta definito lo spazio bisogna poi decidere le condizioni al contorno, ossia il comportamento ai bordi. Si possono avere barriere di tre tipi:

Si nota facilmente come piú piccolo sia il modello, piú importante sia il contributo degli effetti di bordo.
Nella maggior parte dei sistemi non tutti gli agenti hanno le stesse caratteristiche: si definiscono allora classi di appartenenza, legate tra loro da relazioni matematiche.

1.3.2 Modelli a equazioni

La seconda ed ultima tipologia di sistema complesso é data dai modelli a equazioni, ossia quei modelli in cui si effettua uno stduio di tipo top-down (dal generale al particolare). In questo caso si assume di non avere conoscenza sui singoli agenti ma di possedere informazioni di carattere puramente macroscopico, dette osservabili del sistema. Tipicamente, gli osservabili sono legati tra di loro tramite equazioni differenziali le quali, una volta integrate, forniscono un’evoluzione del sistema nel tempo. In questo caso il risultato ottenuto rappresenta giá una media di tutti i risultati possibili: le fluttuazioni del sistema provocheranno quindi uno scostamento da questo valore. Ovviamente, piú tempo si fará evolvere il sistema, piú rilevante sará l’effetto delle fluttuazioni e meno preciso sará il risultato della previsione.

1.4 Distribuzioni

Per l’analisi matematica dei sistemi é utile definire le funzioni di distribuzione, le quali sono indicatori della frequenza di avvnimento di un fenomeno.

Definizione 1.4.1. Gaussiana
ρ(x) = -1---
√2πσe-(x-μ2)2-
 2σ


---0123000001xρ....3212468(x )

Figura 1.2: Gaussiana.


La gaussiana, riportata in Fig. (1.2), é nota come la distribuzione degli errori ed é tra le piú importanti funzioni della fisica. Caratteristica principale é la sua discesa molto veloce superata una distanza pari a σ dal valore medio.

Definizione 1.4.2. Esponenziale
ρ(x) = 1
ke-xk


012345000001xρ....2468(x )

Figura 1.3: Esponenziale.


L’esponenziale, riportato in Fig. (1.3), é la distribuzione emergente dalla meccanica statistica (fattori di Boltzmann).

Definizione 1.4.3. Potenza
ρ(x) 1-
xa, con a > 0


012345012345xρ(x)

Figura 1.4: Potenza.


La potenza, riportata in Fig. (1.4), é una distribuzione che possiede un’importanate proprietá, detta invarianza di scala.

Teorema 1.4.1. Invarianza di scala:
se ρ(x) -1
xa allora posto y = λx si ha ρ(y) = λa
xa 1-
ya

Definizione 1.4.4. Momenti di una distribuzione:
< xk >= -∞+xkρ(x)dx

Teorema 1.4.2. Limite centrale:
Siano xk variabili casuali indipendenti, allora:
lim N→∞z = -1-
√N- k=1Nx k = --1--
√2πσe-z2-
2σ2

1.5 Esempi

1.5.1 Automa cellulare

Un sistema che vuole simulare l’evoluzione di una popolazione in spazi e tempi discreti é detto automa cellulare. Si vuole ora creare un automa cellulare con le seguenti caratteristiche:

Assunzione fondamentale di questo modello é che ogni individuo possa incontrare tutti quegli altri, irrealistico in quanto in una rete sociale la probabilitá di incontri varierebbe da individuo a individuo. In un modello continuo si avrebbe

n (t + Δt ) = n(t) + (an (t) - bn2 (t)) Δt

dove Δt rappresenta il tempo in cui la popolazione evolve (teoria del campo medio), a é il tasso di riproduzione e b il tasso di incontri, questi ultimi assunti costanti. Nel limite Δt 0 si ottiene l’equazione logistica

            (          )
                  b
˙n(t) = an (t) 1 - -n (t)
                  a
(1.1)

che altro non é che la rappresentazione continua della mappa logistica

xn+1 = rxn (1 - xn)
(1.2)

ossia la rappresentazione dinamica non lineare piú semplice che degenera in un moto caotico, resa pubblica nel 1976 dal biologo Robert May.
La stabilitá del sistema si ha ovviamente per n = b
a e la soluzione analitica del problema diventa

n(t) = --------an0---------
       (a - bn0)e- at + bn0

riscrivibile nella forma di funzione logistica

f (t) = tanh-t
            2
(1.3)


---0246--001tf.(642105t.)5
Figura 1.5: Funzione logistica.


Si puó osservare come i limiti f(t) = ±1 rappresnetino due stati fissi mentre la zona centrale sia di transizione, quindi per f(t) = 0 si avrá la massima variazione.

1.5.2 Random Walk 1D

Il modello piú basilare di sistema complesso é sicuramente la random walk su una retta, ossia un punto che ogni istante di tempo decide in maniera casuale se spostarsi a destra o a sinistra. Sia p = 1
2 la probabilitá di muoversi verso destra (quindi anche a sinistra) di un passo Δx. Si hanno:

Dopo n passi si ha quindi p(nΔt) = x0 + kξkΔx con ξ(t) = ±1. Inoltre si puó verificare che < ξk >= 0, < ξk2 >= 1, < ξ kξh >=< ξk >< ξh >,kh. Per il teorema del limite centrale si ha: knξ kΔx = √n-Δt--(          )
  √1-∑n  ξ
   n   k  kΔ√x--
 Δt = √-1---
 2πDte-z2D2t- , con z variabile gaussiana. Introducendo il concetto di diffusione:

Definizione 1.5.1. Diffusione. D = Δx2-
 Δt

si puó descrivere l’evoluzione del sistema come x(t) = x0 + z√ ---
  Dt Si utilizza √ --
  n per normalizzare in quanto é l’unico esponente non divergente. La varianza della gaussiana cresce nel tempo, infatti calcolando i momenti della distribuzione si trova < x(t) >= x0, < (x(t) - x0)2 >= Dt. Se la topologia del sistema fosse una circonferenza (e non una retta), si avrebbe un rilassamento esponenziale a una situazione stazionaria.
Definito un intervallo -L,L sulla retta, la probabilitá che il punto vi sca dopo un tempo t é data da:

                 ∫  L    1      x2
P(|x| > L) = 1 -      √------e-2Dtdx
                  - L  2 πDt
(1.4)

Si puó facilmente notare come raddoppiando la distanza L il tempo t quadruplichi.

1.5.3 Random Walk 2D

Volendo espandere il modello di random walk ad uno spazio 2D si nota subito come, essendo ogni asse indipendente dall’altro, si possa semplicemente comporre due gaussiane:

         --1---- x22+Δyt2
(x,y) ≃  2πΔt e       = ρ(x,y, t)

Dove la diffusione segue la definizione precedente ed é la stessa in tutte le direzioni. La funzione ρ(x,y,t) rappresnta di fatto la probabilitá che la il soggetto in analisi si trovi in un volume ΔxΔy. Si puó riscrivere la relazione precedente in coorfinate polari ottenendo:

ρ (r,θ,t) = --r---e-2r2Δt
           2π Δt

studiando piú semplicemente l’allontanamento dall’origine. In particolare, l’allontanamento medio risulta:

                           ∘ -----
         ∫ ∞                  π
<  r >=      ρ(r,θ,t)rdr =    -Δt
          0                   2

e la densitá diminuisce quindi esponenzialmente.

1.5.4 Random Walk non omogenea

Si consideri ora una random walk 1D con probabilitá non uniforme in un reticolo di passo Δx. Sia ϵ un parametro e si definiscano le probabilitá:

{               1
  p++  = p-- =  4(1 + ϵx)  x ≥ 0   ⇒  x →  x ± 2Δx
  p+ =  p- = 14 (1 - ϵx)   x < 0   ⇒  x →  x ± Δx

Si puó verificare facilmente come le probabilitá siano ben definite. Il sistema tende a muoversi piú velocemente nel verso positivo delle x e piú lentamente nel verso opposto, assomigliando a una scatola con aria a diversa temperatura: vi é quindi un equilibrio locale (ogni nodo é identico). Si puó osservare come:

 <  Δx >  = 0
                                                  (         )
      2          2                   2              5-  3-       2
<  Δx  >  = (4Δx  )(p++ + p- - ) + Δx (p+ + p- ) =  2 + 2 ϵx  Δx

Ogni passo ho un enemble differente, quindi lo spazio non é omogeneo. Ponendo T(x) =< Δx2 > come funzione corrispondente alla temperatura fisica, si ottiene un gradiente costante:

dT- = 3-ϵΔx2
dx    2

Questo gradiente si ritrova spesso in natura, ad esempio i batteri variano la velocitá di movimento (casuale) dei loro flagelli seguendo un gradiente di cibo. Per essere apprezzabile la variazione di temperatura deve essere tale che ΔT = ∂T-
∂xΔx Δx3 e in un limite continuo si ottiene:

     ∂p-   1∂p-     ∂p-
     ∂t =  2∂x T (x)∂x p(x,t)
d < x >    1 ∫   ∂p     ∂p              ∂T
--------=  --  x ---T(x)---p(x,t) > 0   --- > 0
  dt       2     ∂x     ∂x              ∂x

Andando a calcolare media e mediana del sistema si nota come:

   ∫
     xp (x,t)dx  > 0
  ∫               ∫
     0              L
-      p(x,t)dx +      p(x,t)dx  < 0
    -L             0

In conclusione la maggior parte delle particelle si trova nella zona fredda (x < 0), come vuole la fisica, ma la media della distribuzione si trova nella zona calda (x > 0).

1.5.5 Dinamica generica di interazione

Consideriamo di avrere n0 individui iniziali su una griglia (spazio discretizzato) che si muovono seguendo una Random Walk 2D e soggetti alle seguenti restrizioni:

Si osservi come il termine n2(t) conti il numero di coppie. Definita la scala di tempo Δt, in un modello continuo si deve avere (teoria del campo medio):

                   (          2   )
n (t + Δt ) = n(t) + an (t) - bn (t) Δt

con a parametro di riproduzione e -b
a competizione nella popolazione (dato dall’ambiente). Imponendo l’equilibrio

            (          )
                  b-
˙n(t) = an (t) 1 - an(t)  =  0

si ottengono i punti critici n = 0, instabile, e n = a
b stabile. La soluzione al sistema é quindi del tipo

n(t) = --------an0---------
       (a - bn0)e- at + bn0
(1.5)

e la funzione logistica del sistema é

       1 - e- t        t
f (t) = -------t = tanh  --
       1 + e           2
(1.6)

1.5.6 Catmap

Consideriamo un gatto su un toro Π2 (ciambella) in gradi di muoversi secondo la:

(x  )    (2  1 ) (x    )
   n  =             n-1
  yn      1  1    yn- 1

Risulta ovvio come

   (2   1)
det        =  1
     1  1

quindi si conservino le aree. Calcolo degli autovalori:

    (             )
      2 - λ    1        2
det     1    1 - λ  =  λ -  3λ + 1 = 0

e si ottengono

{       3±-√5-
  λ± =   2
  λ+λ - = 1

Il sistema dilata densamente lungo la direzione v+ dell’autovettore λ+ > 1. Dato un vettore iniziale x0, (x0 vt)λtn ln λ t é l’esponenziale di Ljapunov.


000001000001xy.2.4.6.8.2.4.6.8

Figura 1.6: Catmap.


In Fig.(1.6) é rappresentata un’applicazione della catmap su un insieme di punti. Si puó notare come una volta fatto evolvere il sistema partendo dall’area nera, questo non ritorni nella condizione iniziale applicando la trasformazione inversa (area verde).
Problema: data una distribuzione di punti ρ0, cosa succede a ρ0(Tnx)?
Per definizione, data una distribuzione ρ(x), questa deve essere normalizzata Π2ρ(x)dx = 1. L’equazione di continuitá permette di imporre la conservazione del numero di particelle:

                   ||   - n||
ρ(x,n) = ρ0 (T- nx)|∂T----|
                   |  ∂x  |

in cui si riconosce ||∂T -n||
|-∂x-| = det (    )
 2  1
 1  1 = 1, quindi ρ0  n
(T x ) evolve in una distribuzione di particelle. Si puó ora constatare che, se I(x) é un osservabile del sistema, vale la relazione:

             ∫

< I >  (n ) =   I(x )ρ (x, n)dx

La teoria suggerisce l’esistenza di una distribuzione invariante ρs(T- nx) = ρ s. Sia ora χA(x) la funzione caratteristica del dell’insieme A, e ρ0(y) = χA(y)-
m(A), I(x) = χB(x). L’integrale precedente diviene:

             ∫            -n       ∫       -n
< I >  (n ) =   χ  (x)χAT----x dx =    χAT----xdx  =
                 B     m (A)        B   m (A )
                1   ∫                1
           =  ------    χA (y)dy = ------m (A)m (B ) = m (B)
              m (A)  TB            m∫ (A )

                          m (B ) =    χB(x )ρs(x )dx
(1.7)

e si é cosí dimostrato il teorema 1.2.2.

1.5.7 Modello economico

Si vuole ora costruire un primo modello legato alla realtá simulando, per quanto grossolanamente, l’economia globale.
Supponiamo di avere M individui con n soldi ciascuno, che si muovono su una griglia secondo una Random Walk 2D. Ogni qualvolta due individui si trovino sulla stessa cella questi si scambiano 1 soldo con probabilitá p = 1
2.
Caso limite: se si incontra un povero (n = 0), si gioca lo stesso (gioco scorretto) per permettere a tutti di uscire dalla povertá. Il sistema ha quindi i seguenti limiti:

{ ∑
     k nk = N

  nk ≥  0

con N costante, quindi non si ha creazione/distruzione di denaro. La probabilitá di trovare un individuo con n soldi é:

       (M+N  -2-n)
p(n) = -(--M--2-)-
          M+N -1
           N- 1

e, ponendo n = N-
M, si puó calcolare:

      1 (     n )M     1   n
 lim  -- 1 -  ---   =  -e- ¯n
M → ∞ n       M        n
(1.8)

quindi la probabilitá decresce esponenzialmente.


0123456000001np....(2468n)

Figura 1.7: Andamento esponenziale.


Il modello prevede quindi:

Tuttavia osservando i dati sperimentali si nota una discrepanza: nella realtá la probabilitá sembra seguire una legge a potenza piuttosto che esponenziale. Pur non trovando riscontro nella realtá, si é appena dimostrato stocasticamente il fattore di Boltzmann e-βϵ. Si puó quindi pensare il denaro come un’energia interna al singolo mentre la probabilitá di scambio rappresenta la temperatura statistica del sistema.

1.5.8 Modello economico evoluto

Per adattare il modello precedente alla realtá si introduce una microdinamica sugli scambi di denaro.
Sia π± la probabilitá di guadagnare ±1 soldi se un soggetto ne possiede n. Il sistema possiede una struttura di catena:

Definizione 1.5.2. Struttura di catena.
Un modello ha struttura di catena quando il flusso in una direzione implica un secondo flusso nella direzione opposta.

A causa di questa struttura, all’equilibrio si deve avere:

π+ (n - 1)p(n - 1) + π- (n + 1 )p(n + 1 ) = π+ (n)p(n) + π- (n)p(n)

e in particolare é verificato il bilancio dettagliato:

π+ (n - 1)p(n - 1) = π- (n)p(n)  ∀n ≥  1
(1.9)

Normalizzata la distribuzione é possibile iterare il tutto:

        n
p(n) = ∏   π+(k---1)p (0 )
             π- (k)
       k=1

Riscrivendo un maniera piú comoda il bilancio dettagliato, si puó poi procedere:

        1       1             1       1
π+ (n - -)p(n - --) = π- (n + -)p(n + -)
        2       2             2       2

                      1  ∂
[π+ (n) - π- (n )]p(n) ------[π+ (n) - π- (n )]p(n ) ≃ 0
                      2 ∂n
                           ap(n ) +-∂-(bn)p(n ) ≃ 0
                                   ∂n

Si possono notare ora le seguenti dipendenze, introducendo la coppia di parametri costanti (a, b):

(
|{ π+(n - 1 ) - π- (n) ≃ a
  π+(n ) ≃ bn -  a
|(               2a
  π- (n ) ≃ bn + 2

Cercando ora l’andamento di p(n):

                  ( bn - a    )
p(n) - p(n - 1) =   -----2a-- 1  p (n -  1)
                    bn + 2
            dp      a
            --- = - --p (n -  1)
            dn     -bna
   ⇒  nli→m∞ p(n) ∝ n  b
(1.10)

si ottiene esattamente l’andamento a potenza ricercato.


01234560246np(n)

Figura 1.8: Andamento a potenza.


1.5.9 La rovina di un giocatore

Si consideri un giocatore d’azzardo con a disposizione un capitale k e che vuole arrivare ad un capitale M. Il gioco finisce ai “bordi” (barriera assorbente) per k = 0 (giocatore rovinato) o per k = M (giocatore felice). Siano p la probabilitá di guadagnare, q = 1 -p la probabilitá di perdere, PM(k) la probabilitá di arrivare al capitale M partendo da k. Come nel modello economico evoluto si ha:

PM (k) = pPM  (k + 1 ) + qPM (k - 1 )

con i vincoli

{
  PM (0) = 0
  PM (M  ) = 1

Ragionando per induzione si ottiene:

                                                (  )k
PM (k + 1) - PM (k) =  q[PM (k) - PM (k - 1)] =   q-  PM (1)
                       p                          p

              (  )k
          1 -   qp
PM  (k) = ----(-)M--
          1 -  q
               p
(1.11)

Inoltre,

             (  )k
               q-
P∞ (k) = 1 -   p
(1.12)

In particolare, considerando un gioco equo, si puó notare come PM(k) = k-
M e quindi:

Capitolo 2
Entropia e Informazione

2.1 Probabilitá

Data una distribuzione di probabilitá ρ(x) normalizzata (integrale sul dominio uguale a 1) é possibile procedere con le seguenti definizioni:

Definizione 2.1.1. Probabilitá:
p(x [a,b]) = abρ(x)dx

Definizione 2.1.2. Probabilitá cumulata:
p(x a) = -∞aρ(x)dx

Definizione 2.1.3. Probabilitá stazionaria
La probabilitá stazionaria é il numero di volte che un evento accade in una sequenza.

Teorema 2.1.1. legge dei grandi numeri
Siano A e B due eventi distinti (osservati N volte), allora si ha che
lim N→∞p(AB-)
p(A) = p(B∕A)

2.1.1 Ranking distribution

Definizione 2.1.4. Sia x una variabile aleatoria con un sample {x1,,xn} di osservazioni ordinate tali che x1 x2 . Allora xj = f(j) é detta ranking distribution.

Solitamente tale distribuzione é normalizzata in modo che yj = xj
x1. Per definizione la frequenza di un evento é jn, quindi la distribuzione cumulata risulta

             j       J (xj )
F(xj) = 1 - -- = 1 - ------
            n          n
(2.1)

con J(xj inverso del ranking. La funzione di distribuzione sará quindi

         -1dJ-
p(x ) = - n dx
(2.2)

2.2 Entropia

Si supponga di voler calcolare l’incertezza di una distribuzione di probabilitá p1,,pn per gli eventi {x1,,xn}. Si assuma:

La soluzione é del tipo H(p1,,pn) = -ks ipi ln(pi) dove si definisce

Definizione 2.2.1. S = -ks ip(xi) ln p(xi) entropia di informazione (di Shannon)

con ks = -1-
ln2 costante di Shannon. Si puó notare come H(p1,,pn) sia massima per pj = n1. Fissato x = jxjpj, l’entropia é massimizzabile utilizzando i moltiplicatori di lagrange:

        ∑                     ∑
δH  = -     δp(x )lnp(x ) + λ    x δp  = 0
                i       i         j   j
          i                    j

il che implica - ln pj + λxj = 0, con soluzione

       eλxj
pj = ∑-------
       j eλxj
(2.3)

con λ ≃-1
¯x (risultato fondamentale della meccanica statistica). La distribuzione é quindi esponenziale, con pj e-x
-j¯x .

2.3 Informazione

Definizione 2.3.1. Una variabile x a valori discreti {x0,x1,...}é detta variabile di CODING

Si consideri una sequenza (codifica) {xk}1N: si puó assumere P({x k}) = p(x1)...p(xN). Una codifica é detta ottimale se puó descrivere in maniera univoca un’orbita.

Definizione 2.3.2. Data una codifica, si definisce - ln(x) l’informazione portata dal carattere x

Si nota subito come piú un valore della variabile di coding é probabile, minor informazione questo porti. Informaticamente, la misura é circa il numero di bit necessari per memorizzare la sequenza (da qui il fattore ln 2 dell’entropia di Shannon). L’equazione 2.2.1 rappresenta quindi l’informazione media portata da un singolo carattere. Non bisogna confondere entropia con informazione: la variabile deve avere un significato! Data l’indipendenza dei caratteri, si puó scrivere l’entropia di una coppia come

                      ∑
S (P2 ({xk1,xk2})) = -     P2 ({xk1,xk2})ln P2({xk1,xk2} ) =
                      k∑1,k2                 ∑
                  = -     P (x  )lnP  (x  )    P (x  ) ln P (x  )
                              k1        k1         k2        k2
                       k1                  k2

Iterando il ragionamento si giunge alla conclusione che l’entropia di Shannon misura l’aumento di informazione data dall’aggiunta di un carattere.

2.3.1 Matrice stocastica

Si é analizzato finora il caso di caratteri indipendenti gli uni dagli altri. Tuttavia, per comprendere una sequenza bisogna, in generale, conoscerne la memoria, ossia tutte le dipendenze di un evento dagli altri. Formalmente, ció vorrebbe dire che, dati due eventi A e B, P({AB  }) = P(B ∕A) P(A)P(A)P(B). Si puó facilmente osservare come lim N→∞P(P{A(BA)}) = P(B∕A ), dove N rappresenta il numero totale di eventi. L’irreversibilitá di un evento si ha quando la coppia di eventi AB é diversa dalla coppia di eventi BA.

Definizione 2.3.3. pij = p(xj∕xi) matrice stocastica

La matrice stocastica ha per definizione le seguenti proprietá:

Questa matrice é molto importante, essento intrinsecamente legata alla probabilitá condizionata, ed é alla base di ogni problema di trasporto. Si consideri ora una sequenza infinita e sia pi la probabilitá di avere l’elemento xi in quella posizione. Qual é la probabilitá pj di avere l’elemento successivo? Sia n il numero di passi per arrivare in posizione i, allora:

 n+1    ∑      n
pj   =     pijpj
         i
(2.4)

Risulta quindi utile il seguente teorema:

Teorema 2.3.1. Esiste un autovettore con autovalore λ0 = 1, ossia
pjs = ipijpjs

Corollari:

2.3.2 Teoria di Markov

A questo punto si puó calcolare come cambi quantitativamente l’informazione di una catena aggiungendo un carattere.

Definizione 2.3.4. Proprietá di Markov (di tempo presente)
P({x1,...,xn+1}) = P(xn+1∕Pxn)P({x1,...,xn})

Si puó quindi calcolare l’entropia dell’(N+1)esimo passo

          ∑
SN+1 =  -     P ({x1...xN+1 }) ln P ({x1 ...xN+1 }) =
          ∑
     =  -     P ({xN+1 ∕xN })P ({x1 ...xN+1 })[ln P ({xN+1 ∕xN })ln P ({x1...xN+1 })] =
          ∑                                     ∑
     =  -     P ({x1...xN }) ln P ({x1 ...xN} ) -    psjP (xi∕xj)ln P (xi∕xj )
                                                 i,j

ottenendo, nel limite N >> 1, l’espressione:

              ∑   s
SN+1  = SN -     pjpij lnpj
               ij
(2.5)

Nei linguaggi l’aggiunta di un carattere non cambia di molto l’entropia (per fortuna, altrimenti sarebbe molto difficile parlarsi, ndr). Questa entropia fornisce tuttavia un’importante risultato sulla reversibilitá del processo: se invertendo il tempo non ho differenza di entropia, allora il processo é reversibile, altrimenti no. Le fluttuazioni di un sistema all’equilibrio sono sempre un processo reversibile, infatti osservando tale sistema non si riesce a distinguere tra passato e futuro. Come esempio per giustificare la precedente affermazione si puó prendere un pendolo fisico in assenza di attriti/forse esterne, oppure un moto browniano. Un esempio grafico puoó essere rappresentato dalla Fig.(2.1).


ABC

Figura 2.1: Grafo di esempio reversibilitá.


Associando la matrice

      (         )
        0   12  12
Πij = (  1  0  1)
         21  1  20
         2  2

si ha eguale probabilitá di transizione in ogni direzione ammessa dal grafo. L’evoluzione temporale é data da

 n+1   ∑       n
pi   =     Πijpj
         j

e si verifica facilmente che il sistema é reversibile con distribuzione stazionaria

          (       )
      n     1  1 1
nli→m∞ p  =   -, -,--
            3  3 3

Considerando invece la matrice

      (         )
        0   13  23
Πij = (  2  0  1)
         31  2  30
         3  3

si aumenta la probabilitá di percorrere il triangolo in senso antiorario. Essendo la distrubuzione stazionaria identica al caso precedente si puó studiare la reversibilitá con il bilancio dettagliato:

π13ps =  21-⁄=  11-=  π31ps
     3   33    33        1

Secondo Onsager, la distribuzione stazionaria corrisponde all’equilibrio quindi, analizzando le fluttuazioni é possibile capire se il sistema sia reversibile o meno. Nell’esempio riportato in Fig. (2.1) é evidente come la rimozione del punto A non influenzi il sottosistema BC: é questo l’equilibrio dettato dal bilancio dettagliato.
In conclusione, la teoria dell’informazione é applicabile quasi in ogni ambito. Sono stati effettuati studi sui linguaggi, premiando finlandese e tedesco come lingue piú entropiche, e studi sulla musica, che vedono Bach meno entropico di Hindemith.

2.4 Esempi

2.4.1 Utilizzo della misura invariante

Sia xn = 2n un numero, con n 1. Qual é la probabilitá che esso abbia un 7 come prima cifra?
Supponendo 2n = 7.⋅⋅⋅× 10k, allora log 2n = log 7.⋅⋅⋅ + k. Si consideri ora la dinamica

yn+1 = yn + log 2   mod  1
(2.6)

che rappresenta sostanzialmente una traslazione nell’intervallo [0, 1]. In questo caso l’esponente di Ljapunov é nullo in quanto non vi é espansione. Iterando la 2.6 si ottiene

yn = y0 + n log 2  mod  1

e la misura invariante risulta quindi una distribuzione uniforme nell’intervallo [0, 1]. Da qui la probabilitá lim n→∞P(7) = log 8 - log 7.

2.4.2 Entropia di una mano di carte

Supponiamo di possedere un mazzo di N carte differenti e di pescare da esso k N carte. Per calcolare l’entropia di informazione associata alla mano pescata, bisogna innanzitutto calcolare la probabilitá di una mano singola. Le combinazioni di k carte di un mazzo di N carte sono date dal coefficiente binomiale:

     (   )
C  =   N   =  ---N-!-----
       k      k!(N  - k)!
(2.7)

Assumendo che il mazzo non sia truccato, quindi che ogni estrazione sia equiprobabile, la probabilitá di ogni singola mano é pi = 1-
C. L’entropia di informazione (o di Shannon) associata ad essa é quindi

          C                 (       )
         ∑                    1-  -1          ----N-!----
S = - kS    piln pi = - kSC   C lnC    = kS ln k!(N  - k)!
         i=1

con kS = ln12 costante di Shannon.

2.4.3 Broken Stick Model/Modello di Markov

Si consideri un segmento di lunghezza unitaria nel quale viene inserito casualmente un punto x1 [0, 1] secondo una distribuzione uniforme. Si scarti ora il segmeno [0,x1] e si iteri il processo per N volte: si tratta di un processo ricorsivo con memoria del passato. Essendo la distribuzione di probabilitá uniforme risulta ovvio come < x >= 12 quindi é possibile riscalare il tutto con una variabile y y
2 Definita la densitá ρ del sistema si puó scrivere:

      ( y) dy
 ρN+1   -- ---= ρN (y)dy
        2   2
⇒   lim  ρN (y ) ∝ 1-
   N→ ∞          y

Il risultato é una legge a potenza con α = -1, quindi non normalizzabile in quanto l’integrale diverge. Il sistema ha un effetto di memoria assoluta: una volta tagliato il segmento non é possibile riattaccarlo. Se il segmento non venisse tagliato si otterrebbe un andamento a potenza con α 1 e risulterebbe pertanto normalizzabile. Un’utile applicazione dei modelli di Markov si trova nel linguaggio (verbi) e in biologia (DNA).

2.4.4 Penney’s game

Si prenda una moneta e la si lanci all’infinito. Si vuole scommettere con un’altra persona su una terna di uscite consecutive dai lanci e ci si chiede come si possa vincere piú facilmente. Analizzando attentamente il problema si puó notare come l’uscita delle sequenze non sia casuale ma segua un percorso ben preciso: l’unica sequenza casuale é quella data dalle prime tre uscite.


HHHHHTTHTHTTHTTTHTHHTTTH

Figura 2.2: Schema del gioco di Penney


In questo modo risulta abbastanza semplice fregare l’ avversario: facendolo scegliere per primo, é sempre possibile scegliere una sequenza piú probabile della sua.
Eseguendo i calcoli si nota subito come la probabilitá stazionaria del sistema sia data da (1)
 23 = 1
8 = 12.5%. Scegliendo per secondi si vince sempre a meno che la sequenza dell’avversario non esca dai primi tre lanci, quindi eseguendo i calcoli sulle probabilitá si ottiene la seguente tabella:





1st player’s choice 2nd player’s choice 2nd player’s winning chance




HHH THH 87.5%
HHT THH 75.0%
HTH HHT 66.7%
HTT HHT 66.7%
THH TTH 66.7%
THT TTH 66.7%
TTH HTT 75.0%
TTT HTT 87.5%




Nel primo e nell’ultimo caso si nota facilmente come la vittoria sia certa ammesso che non esca la tripletta scelta dal giocatore 1. Essendo la probabilitá stazionaria 1
2, P1,8 = 1 -(1-)
  23 = 7
8.
Nel secondo e nel penutlimo caso si puó ragionare in modo analogo al caso precedente, ottenendo P2,7 = 1 -(1)
 22 = 3
4.
In tutti gli altri casi la probabilitá é data da P3,4,5,6 = 12 + 12P(player1) = 12 n=0(  )
  14n = 23.

Capitolo 3
Modelli di trasporto

3.1 Teoria

Consideriamo due punti (A e B) di un generico spazio e colleghiamoli con un canale immaginario, facendo riferimento alla Fig.1, possiamo definire il flusso ΦAB di una quantitá fisica trasportata nell’unitá di tempo tra i due punti.


ABΦ
  A→B

Figura 3.1:


Definiamo V A∕B una certa proprietá del nodo A∕B, questa proprietá ne definisce lo stato. Possiamo quindi scrivere una sorta di legge di Ohm per la situazione descritta

ΦA →B  R =  VA - VB

dove R é una proprietá del link (ad es.  la portanza di una strada ma anche la probabilitá di transizione). Osserviamo che é di notevole importanza la dimensione del link (L) in quanto se attraversiamo il link abbiamo un flusso Φ, di conseguenza la capacitá del sistema di trasporto richiede ΦL di “veicoli".


ABCDS

Figura 3.2:


3.2 Reti neurali di Hopfield

Il problema alla base del modello di Hopfield consiste nel far memorizzare al network un insieme di p patterns ξiμ in modo tale che se presento un nuovo stato ζ i il network mi restituisce il pattern che piú si avvicina a ζi. Etichettiamo ogni pattern con l’indice μ = {1,,p} e le unitá del network (neuroni) con l’indice i = {1,,N}.

Definizione 3.2.1. (Distanza di Hamming) La distanza di Hamming tra due pattern rappresenta il numero di bit che li differenzia tra loro.

d = N---  1∑   ξ ξ′
     2    2     i i
             i

3.2.1 La Dinamica Deterministica

Denotiamo lo stato dei neuroni con Si = ±1 (+1 se il neurone é attivo e -1 se é inattivo). La dinamica discreta del network si puó scrivere come

            (                )
              ∑
Si(t) = sign      wijSj (t - 1)
               j
(3.1)


   --51-101510
xsign(x)

Figura 3.3: La funzione sign(x)


con Δt = 1. La matrice wij é la matrice dei pesi delle connessioni tra neuroni i j ed ha le proprietá di essere una matrice simmetrica (wij = wji) ed avere gli elementi sulla diagonale tutti nulli (wii = 0). Per questo tipo di dinamica i pattern memorizzati risultano essere degli attrattori Fig. 6.


ξ2iξ3iξ1i

Figura 3.4: Schema dello spazio delle configurazioni con tre attrattori (patterns memorizzati)


Per motivare la scelta dei pesi delle connessioni consideriamo un caso semplice in cui abbiamo soltanto un pattern. La condizione per la quale il pattern risulta stabile é

     ( ∑       )
sign      wijξj   = ξi    ∀i
        i
(3.2)

che risulta essere vera se definiamo la matrice dei pesi come segue

       1
wij = N--ξiξj
(3.3)

infatti ξj2 = 1. Ne deriva che se considero uno stato di rete S i che differisce di qualche bit dal pattern che ho inzialmente mostrato al network, lo stato evolverá con la dinamica in equazione (3.1) e rilasserá a ξi. Tuttavia esiste un altro stato attrattivo: lo stato opposto (-ξi).
Il discorso puó essere esteso anche al caso molti pattern? In tal caso possiamo ridefinire la matrice dei pesi come sovrapposizione delle matrici associate ad ogni pattern

         ∑p
w  =  1--   ξμξ μ
 ij   N      i j
         μ=1
(3.4)

questa é spesso chiamata regola di Hebb. Esaminiamo la stabilitá di un particolare pattern, la condizione di stabilitá generalizzata risulta

          (         )         (                  )
  ′         ∑                   1--∑  ∑    μ μ
Si = sign      wijSj   = sign   N         ξi ξj Sj
             j                      j  μ
(3.5)

imponiamo Sj = ξjν

     [         (         ) ]
      -1-∑    μ  ∑    μ ν       ν       μ ν    ν
sign  N      ξi      ξj ξj   = ξi ⇐ ⇒  ξj ξj = δμ
          μ       j
(3.6)

cioé i patterns devono soddisfare alla condizione di ortogonalitá e sotto questa condizione si ha che la distanza di Hamming é massima. Cosa succede se i pattern memorizzati non sono tutti ortogonali tra loro? Consideriamo la quantitá

          (                  )
  ν      ν  -1-∑  ∑    μ μ  ν
C i ≡ - ξi  N         ξi ξj ξi
                j  μ⁄= ν
(3.7)

l’espressione tra parentesi la chiamiamo termine di crosstak. Se Ciν é negativo allora il termine di crosstalk ha lo stesso segno di ξiν quidi non abbiamo un cambiamento dello stato, al contrario se Ciν > 0 abbiamo un flip dello stato del nodo. Ipotizziamo che i pattern siano variabili casuali a media nulla e varianza unitaria, quindi é possibile applicare il teorema del limite centrale e μνξiμξ jμξ iν z é una variabile gaussiana Fig. (3.5):

é anche possibile stimare la probabilitá di errore come

                        ∫ ∞              (        { ∘ ---} )
        μ         --1---     - z2σ22-     1-              N--
Perror{C i > 1} ≃  √2-πσ  1  e    dz =  2   1 - erf     2p
(3.8)


   --1201.215
  ν ν
CP i(Ci )
Figura 3.5: La distribuzione gaussiana dei valori del termine di crosstalk dato da p patterns e N unitá.


3.2.2 La Funzione Energia



Figura 3.6: Un esempio di landscape energetico.


Introduciamo anche qui il concetto di funzione energia o hamiltoniana del sistema per analogia con il Modello di Ising, trattato nelle sezioni precedenti. Facendo quindi riferimento all’equazione (1.4):

       1 ∑
H  = - --    wijSiSj
       2  i,j
(3.9)

un esempio di possibile landscape energetico puó essere immaginato come in Fig. (3.6). La proprietá principale dell’hamiltoniana (3.9) é quella di essere sempre decrescente (o costante) se il sistema evolve secondo la dinamica deterministica. É facile verificare questa affermazione: prendiamo Si un nuovo valore di S i

          (         )
            ∑
Si′= sign      wijSj
             j
(3.10)

se Si = S i l’energia rimane immutata mentre, negli altri casi Si = -S i scegliamo un termine che coinvolge Si

  ′         ∑       ′     ∑
H  - H  = -     wijSiSj +    wijSiSj
            i⁄=∑j           j⁄=i
        = 2S     w  S
            i      ij j
             ∑j⁄=i
        = 2Si    wijSj - 2wii
               j
(3.11)

i due termini risultano essere entrambi negativi.

Stati Spuri

Abbiamo mostrato che la regola di Hebb ci fornisce un sistema dinamico discreto che possiede degli attrattori ricercabili anche attraverso i minimi locali della funzione energia. Non abbiamo peró mostrato che questi attrattori sono gli unici. Infatti, per ogni attrattore ξiμ esiste anche l’inverso, anch’esso attrattore -ξ iμ. È possibile mostrare che esistono degli stati stabili detti stati misti ξimix che non coincidono con nessun pattern ma rappresentano una combinazione lineare di un numero dispari di essi, nel caso piú semplice:

ξmix = sign (±ξ μ1 ± ξμ2 ± ξμ3)
 i            i     i     i
(3.12)

Esiste anche un altro tipo di stati stabili che si verificano quando p é abbastanza grande rispetto ad N, questi stati non sono correlati in alcun modo con altri patten memorizati e sono chiamati stati vetro di spin. Questi ultimi due tipi di stati sono detti stati spuri.

3.2.3 La Dinamica Stocastica

Nel Modello di Hopfield viene introdotto un concetto analogo a quello di temperatura, intesa come disordine termico, per tenere conto delle fluttuazioni dovute a varie cause non controllabili. Si tratta piú propriamente di una pseudo-temperatura, in quanto non ha nulla a che fare con le dimensioni fisiche né con il significato fisico di una temperatura. Spesso si lavora con la temperatura inversa β definita da

     1
β =  --
     T
(3.13)

Come nel Modello di Ising, anche nel Modello di Hopfield l’evoluzione del sistema é quindi governata dalla competizione tra la presenza di un campo esterno, che tende ad allineare gli stati delle unitá e prevale per basse temperature, e l’effetto del disordine termico che prevale ad alte temperature. Per tenere conto delle fluttuazioni, occorre introdurre una dinamica stocastica, valida per temperature finite, che si riduce alla di- namica deterministica esposta fin’ora nel limite T 0. Ció puó essere fatto mediante la Dinamica di Glauber, sostituendo la regola dinamica deterministica (3.1) con la regola dinamica stocastica di Glauber. Ad ogni step temporale verrá aggiornata secondo

     {
S ′=   +1   con probabilitá fβ(hi)
  i    - 1  con probabilitá 1 - fβ(hi)
(3.14)

con

           [           (   ∑       ) ]
f (h ) = 1- 1 - S tanh   β    w  S
 β  i    2       i              ij  j
                            j
(3.15)

che puó essere riscritta come (Fig. 9)

             eβhi           1
fβ(hi) = -βh------βh- = ------2βh-
         e  i + e   i   1 + e    i
(3.16)


   --51010.1550
hfβββiβ(→==hi00)∞..525

Figura 3.7:


Per β →∞, ovvero T 0, fβ tende alla step function che descrive la regola dinamica deterministica, mentre per β 0, ovvero T →∞, fβ 1
2, ovvero gli stati delle unitá sono completamente randomici. Notando che 1 -fβ(hi) = fβ(-hi), la regola dinamica stocastica puó essere scritta come

     ′                  ----1-----
P (Si = ±1 ) = fβ(hi) = 1 + e∓2βhi
(3.17)

3.3 Esempi

Capitolo 4
Teoria del controllo

4.1 Approccio generale

La teoria del controllo é quella branca della fisica che studia come controllare i sistemi dinamici. L’obiettivo principale é quello di creare un controllo, ossia un modello/algoritmo, in grado di portare un sistema dinamico in un determinato stato dato uno stato iniziale (in input).

Definizione 4.1.1. Il modello é detto ottimale quando si é raggiunto un buon livello di stabilitá, minimizzando i riratdi e gli errori.

Il dispositivo che gestisce il sistema dinamico é detto controllore e va selezionato accuratamente in base alle richieste del sistema da gestire. Formalmente il controllo viene immesso nel sistema attraverso una forzante che, aggiunta alla lagrangiana, permette lo studio e l’ottimizzazione del problema. Per maggiori informazioni sulla meccanica analitica é possibile consultare gli appunti delle lezioni al link https://github.com/Grufoony/Fisica_UNIBO/blob/main/Appunti_meccanica_analitica.pdf.

4.2 Applicazioni biologiche

Si supponga ora di voler studiare un sistema biologico quale, ad esempio, il cuore umano.


05112-02tV050 2(t)

Figura 4.1: Stilizzazione del battito cardiaco.


Il battito cardiaco stilizzato in Fig 4.1 suggerisce un modello in cui:

L’idea é ridurre la cellula cardiaca ad un sistema complesso a due variabile, x per la lunghezza della fibra e b per lo stimolo elettrochimico da associare ad essa (controllo elettrico). Il modello di Zeeman é rappresentato dal sistema

{
 ϵ dx-=   - (x3 - T x + b)
  dbdt
  dt =    x - x0
(4.1)

in cui la prima equazione ricorda l’equazione logistica (Eq. 1.1). Il fattore infinitesimo ϵ garantisce una scala di evoluzione rapida.



Figura 4.2: Nullclina.


L’equilibrio stabile si ha sulla nullclina dx-
dt = 0, quindi per x = x0 e b = -x3 + Tx, il cui grafico é riportato in Fig. 4.2 I punti A e B sono ovviamente i punti critici del sistema: la parte di curva compresa tra i due punti non é esplorabile in quanto da B é solo possibile ricadere sul ramo di A e viceversa. Questa é l’idea della catastrofe di Zeeman, ove per A < b < B perdo l’invertibilitá del sistema. Se si é in presenza di uno stimolo ad onda quadra che riesce a spostare il sistema oltre il punto B (facendolo quindi ricadere su A) si ha la contrazione (sistole e diastole, vedi Fig. 4.3)


---0123-02AB 3212

Figura 4.3: Sistole (A B) e disatole (B A).


Volendo ora dimostrare formalmente la stabilitá del punto di equilibrio (x0,b0) é conveniente lavorare in un intorno di esso:

Δx  =x  - x0

 Δb =b -  b0

Linearizzando il sistema

{
  ϵdΔx-=   - (3x2 - T )Δx  - Δb
    dt           0
  dΔdbt =    Δx

ei ottiene la matrice

( (-3x20+T )     )
  ---ϵ----  - 1ϵ
     1       0

con determinante 1
ϵ > 0. Data la presenza di un quadrato la stabilitá non dipenderá dal segno di x0 quanto dal suo modulo. Il determinante positivo implica autovalori entrambi positivi o entrambi negativi: si avranno autovalori positivi, quindi un punto instabile, se la traccia é positiva e viceversa. Si assuma ora di voler introdurre una funzione periodica x+(t) di periodo sufficiente per effettuare il “salto”.

{  dx-        3
 ϵ dt =  - (x  - T x + b)
  db-=    x - x+ (t)
  dt

Ora é possibile accoppiare due cellule cardiache come segue

(
|| ϵdxdt =   - (x3 - T x + b)
|{  db-=    x - y
   dtdy
||| ϵ-dt =   - (y3 - T y + b′)
(  db′=    y - x
   dt

con x(0) x0 e y(0) x1 punti di equilibrio. Per fare in modo che il sistema sostenga l’onda (senza il bisogno di uno stimolo esterno) é necessario un accoppiamento in controfase, ossia quando la cellula x é in contrazione la y é in dilatazione e viceversa. Creando una catena di questi oggetti é possibile quindi generare un fenomeno d’onda.

4.3 Esempi

4.3.1 Pendolo rovesciato

L’esempio piú classico di sistema controllabile é dato dal pendolo rovesciato.


θxCxO

Figura 4.4: Pendolo rovesciato


Siano xC(t) la coordinata del controllore, xO(t) la coordinata del pendolo di lunghezza l e θ l’angolo formato da esso con la verticale. Utilizzando la meccanica lagrangiana:

{
  x  = x  +  lsin θ
   O     C
  yO = lcos θ

{             ˙
  ˙xO =  ˙xC + lθcos θ
  ˙yO = lθ˙sin θ

La lagrangiana del sistema si puó scrivere come:

       ( (            )2             )                 (                 )
L =  m-   x˙C +  lθ˙cosθ   + l2 ˙θ2sin2θ - mgl cos θ ≃ m-  l2 ˙θ2 + 2x˙C l˙θcos θ - mgl cosθ
     2                                              2

alle piccole oscillazioni (θ 0 e mgl cos θ ≃-mgl 2
θ2):

        m (             )       θ2
LP O =  --  l2θ˙2 + 2x˙C l˙θ +  mgl ---
        2                       2

L’equazione del moto risulta infine:

¨   g-    ¨xC-
θ = l θ -  l
(4.2)

Riconosciuta la forzante, per semplicitá si pone C = ±a(t) costante. La soluzione non é omogenea:

       (          )
              a(t)            ˙θ0          a(t)
θ (t) =   θ0 - ----  coshωt +  --sinh ωt + ----
               g              ω            g

Assumendo ora θ0 0 e ˙θ00 e che il pendolo si stabilizzi in un tempo T si ha la soluzione stabile:

                                   -ωT
θ(T) = C cosh ωT +  C sinh ωT  ≃ Ce

Si puó ora ricavare la condizione richiesta:

              ˙
C = θ (T ) = - θ(T-)
               ω
(4.3)

Andando a imporla si ottiene:

- a-cosh ωT +  ˙θ(T)-sinh ωT  + a-=  a-sinh ωT  - θ˙(T-)cosh ωT
  g             ω             g    g             ω

Da cui si puó ricavare il periodo di stabilitá:

             a
T  = 1-ln ---g----
     ω    a - θ˙(T)
          g    ω
(4.4)

Un’osservazione importante riguarda la condizione critica del sistema, ove esso non risulta piú controllabile, che si ha quando ˙θ0 = aω
g.

4.3.2 Marriage Model/Modello relazionale

Si supponga ora di voler controllare una relazione con un’altra persona, che tipo di relazione conviene studiare? La scrittrice Anna Karenina sembra fornire una soluzione al problema, constatando che tutte le relazioni felici sono uguali ma ogni relazione infelice lo é a modo suo. Sia ora x(t) il grado di felicitá nella relazione che, per semplicitá si assume positivo (x(t) +) in accordo con l’ipotesi della Karenina. L’equazione che descrive la relazione sará del tipo:

˙x = - rx(t) + ac(t)
(4.5)

in cui riconosciamo la funzione costo c(t) della relazione (ove per costo si intende uscire a cena, fare un regalo, ecc...),il parametro r (quanto la felicitá tenda a diminuire) e il parametro a (amplificazione del costo). La relazione giungerá al termine una volta arrivati ad un valore minimo della felicitá, che verrá denotato come xm.
Per rafforzare il modello si introducono ora due potenziali:

Si puó ora definire il funzionale di soddisfazione come:

        ∫ ∞
W (c) =     e- λt[U  (x (t)) - D (c(t))]dt
         0

dove il coefficiente λ-1 rappresenta la scala di memoria del sistema.
Per ottimizzare il problema si deve avere

δ˙x = - rδx + aδc

e quindi la variazione infinitesima del funzionale

         ∫ ∞                              ∫  ∞     [                δ ˙x + rδx]
δW (c) =     e-λt[U ′(x)′δx - D ′(c)δc]dt =      e-λt U ′(x )′δx - D ′(c)---------  dt
          0                                0                            a

Integrando per parti:

  ∫           δx˙       [         δx ]∞    ∫ ∞  d [e-λtD ′(c)δx ]
-    e-λtD ′(c)---dt = -  e-λtD ′(c)---   +      --  ------------ dt
               a                   a  0     0  dt       a

e quindi

      ∫   {                [          ]             }
        ∞    -λt  ′      d  e- λtD ′(c)    e-λtD ′(c)r
δW  =       e   U (x ) + dt ----a----- -  ----a------ δxdt
       0

Essendo δx arbitrario

         dc
D ′′(c(t))---=  (r + λ )D ′(c) - aU ′(x)
         dt


Si assumano ora, per esempio, i seguenti potenziali

{
  U (x) = U∞  (1 - e- αx)
  D (c) = c(c - 2c0)
(4.6)

che forniscono il seguente sistema (equilibrio instabile):

{
  ˙x = - rx + ac
                         -αx
  ˙c = (r + λ )(c - c0) - αe-2-
(4.7)


costofelicitácmaxxmA′AB′BγBγA

Figura 4.5: Orbite relazionali.


Le orbite risultanti sono riportate in Fig.(4.5), dove si possono distinguere due strategie:

In entrambi i casi bisogna, tuttavia, prestare parecchia attenzione una volta raggiunti i minimi: se lungo la γA si fa una litigata troppo pesante o lungo la γB si trascura troppo la relazione, si rischia di finire fuori orbita (quindi fuori equilibrio) e far cosí fallire la relazione (il che é no buono, n.d.r.).

4.3.3 Modello di Fitzhugh-Nagumo

Un’altra applicazione biologica é rappresentata dal modello per il neurone di Fitzhugh-Nagumo, basato sull’oscillatore di Var der Pol. Definite x potenziale di membrana e w la corrente, il modello consiste nelle equazioni differenziali:

{ dx       x3
  -dt =   - -3 + x - w +  I
  dw-=    1(x - bw + a )
   dt     τ
(4.8)

con 1
τ << 1 in modo da avere x variabile veloce e w lenta. Anche in questo caso si ottiene una nullclina simile a quella rappresentata in Fig. 4.2.
La stabilitá all’equilibrio é data da:

{         x3
  w =   -  3 + x + I
  w =   x+ab-

Si puó verificare come esiste (e sia unico) un punto di equilibrio stabile P quindi, assumendo di aver trovato la risoluzione al sistema, é possibile linearizzare il campo

{              2
  δ˙x =   (1 - xP )δx - δw
  δw˙=    1τδx - bτδw

riscrivibile come matrice

(            )
 1 - x2P  - 1
    1     - n
    τ       τ

che ha determinante -b
τ      2
 (1 - xP ) + 1
τ. La stabilitá si ha per un modulo sufficientemente grande di xP (anche se xP 0 al crescere di I) mentre l’instabilitá si ha per b < 1. Lo stimolo é rappresentato da una variazione della I che, se abbastanza rapida, permette di percorrere la nullclina.
Il sistema é non caotico ma con derivate di ordine diverso (Stiff). Si assuma I(t) = Δ(t), allora x(0+) = x 0 + Δx se x(0-) = x 0, quindi se Δx supera una determinata soglia si ha una grande fluttuazione. Per (x,w) abbastanza grandi é possibile definire la funzione di Ljapunov

     1 (      x2 )
H  = --  w2 + ---
     2         τ
(4.9)

costante che rappresenta un’ellisse. La derivata della funzione di Ljapunov é negativa quindi la dinamica non é espansiva e il sistema non puó esplodere: si arriva cosí ad una biforcazione di Hopf, ossia si parte da una situazione attrattiva rispetto al punto fisso e, passando attraverso una situazione repulsiva (grazie ad un parametro) si arriva ad un ciclo limite, quale traiettoria periodica di un attrattore dinamico.

Capitolo 5
Altre applicazioni

5.1 Fisica della cittá

Un’applicazione interessante dei sistemi complessi riguarda l’ambito urbano (e sociale). Uno dei primi problemi affrontati storicamente é il problema del traffico. Tante auto si muovono su un network, ognuna delle quali tende a mantenere una velocitá ottimale in base alla macchina che la precede: questa dinamica viola la terza legge di Newton in quanto non é detto che la macchina che sta dietro influenzi quella davanti. Le onde di traffico si vengono a creare a causa dei tempi di reazione degli automobilisti (mai istantanei). Nonostante la creazione di queste onde, il flusso di auto sulla strada rimane costante.
Osservando dati sperimentali riguardanti le velocitá si nota un appiattimento ad alte densitá della curva, dunque il tutto satura ad una velocitá media fissa. Posto j come indice di un veicolo, un modello stile Newton obbedisce a:

{
  ˙sj =  vj
  ˙vj =  - β (vj - vopt(sj-1 - sj))
(5.1)

Il parametro β é proporzionale all’accelerazione ma l’equazione di secondo ordine implica un’equazione di prim’ordine con ritardo (tempo di reazione). Se β é molto basso allora si creano onde solitoniche e ogni plateau dell’onda corrisponde ad un equilibrio del sistema. Questo sistema statistico crea un equilibrio dinamico, perché dinamicamente si ha qualcosa che si propaga nel sistema, che contiene un equilibrio dove le auto vanno veloce e uno dove le auto vanno lente. Quando il sistema non riesce a mantenere l’equilibrio globale, si formano degli equilibri a livello locale. Normalmente, infatti, si osserva che aumentando il numero di auto in una strada il flusso stesso aumenti fino ad arrivare ad una situazione di instabilitá: esiste quindi un valore critico di densitá superato il quale il flusso inizia a diminuire e il sistema non riesce piú a rispondere al flusso immesso, dando luogo al flusso stop&go e creando l’onda solitonica.
Un fundamental diagram é un concetto molto utilizzato nelle reti di trasporto: in questo il punto critico di densitá risulta un massimo. Tuttavia, il meccanismo di stop&go si innesca molto prima che il sistema giunga a questo massimo La geometria del sistema é fondamentale, in quanto descrive come esso smorzi/sostenga le oscillazioni delle sorgenti. In autostrada, ad esempio, le congestioni (variazioni della velocitá media) si hanno nei punti di immissione, poi si propagano come onde solitone. Vi é inoltre un’alta sensibilitá alle fluttuazioni, in quanto ogni persona guida in modo differente, la cui ampiezza aumenta con la densitá seguendo un regime poissoniano (maggiore il valore medio maggiori le fluttuazioni). Per arrivare al flusso ottimale bisogna diminuire la fluttuazioni, quindi raffreddare il sistema (auto a guida autonoma).
Una proposta di Tom Tom utilizza la velocitá media come osservabile macroscopico: la velocitá media delle auto in cittá é tuttavia molto bassa, a causa delle soste forzate, mentre la mobilitá ciclistica risulta decisamente piú alta.

5.1.1 Modelli di traffico

Si consideri ora un network in cui ogni nodo é o sorgente o destinazione (tipico di aeroporti e stazioni ferroviarie). Senza considerare la dinamica del singolo veicolo, si assuma poi che ogni link riesca a trasportare, quindi che abbia capacitá infinita (cosa non assumibile nel caso delle automobili). Cosa accade agli incroci?
Se si assumono nodi a capacitá finita allora la congestione si ha quando un nodo diminuisce la capacitá di creare trasporto. Sia ni il numero di agenti presenti nel nodo i. Una volta fornito un peso al link la domanda di mobilitá dipenderá da n e dal flusso tra i nodi i e j. Si puó calcolare la probabilitá di transizione i j come πijni: questa risulta proporzionale al numero di agenti, quindi maggiore é ni maggiore é la probabilitá che questi si allontanino dal nodo i. Fisicamente questo ricorda un reticolo cristallino con elettroni ai nodi: un elettrone puó transire da un nodo ad un altro solo se la destinazione é vuota.
Fondamentale ora introdurre una legge di continuitá (ossia una corrente), in quanto un nodo non puó trasmettere oltre la sua popolazione:

∑
   πij = di < 1
 j
(5.2)

dove di indica la capacitá di trasmissione (numero di agenti in uscita). Si richiede dunque che i flussi siano sempre positivi e che il numero di particelle sia conservato.
Si assuma ora che la velocitá di percorrenza sia dipendente dal numero di agenti presenti, quindi

     ∑                     ∑
n˙i =     πijnj - dini = - L    Ljinj
       j                    j

dove Lji = djδji -πji é una matrice laplaciana. Le matrici laplaciane possiedono le seguenti proprietá:

Si nota facilmente come nella matrice laplaciana gli elementi sulla diagonale principale descrivano la capacitá di trasporto del sistema, mentre gli elementi esterni alla diagonale descrivano i link. Le matrici laplaciane rappresentano di fatto leggi di bilancio di massa, ossia descrivono la mobilitazione da un punto ad un altro del network.
Un sistema di questo tende a rilassare ad un equilibrio: aumentando il numero di agenti in un nodo aumenterá anche la sua capacitá di farne uscire. Un sistema lineare infatti é insensibile al numero di particelle inserito ma é sensibile a un flusso in entrata variabile: in questo caso il sistema non puó rilassare e la sua soluzione dipende dalla velocitá di variazione del flusso in entrata.
La terza proprietá della matrice laplaciana garantisce l’integrale del moto

∑
   ni = N
 i

mentre la seconda garantisce che tutti gli autovalori (eccetto uno che é di certo nullo) siano positivi. La dinamica risulta attrattiva verso lo stato di equilibrio, situato evidentemente nel primo quadrante. Le proprietá spettrali forniscono il tempo impiegato dal sistema per rilassare.
In generale, si puó imporre la congestione con πij = πij(ni). Un risultato simile é ottenibile anche utilizzando la funzione logistica, vedi eq. 1.3, utiizzandola come funzione che lega il numero di particelle al peso: all’aumentare di n il peso deve ridursi. In questo caso la congestione non si avrá inizialmente ma si creerá rapidamente dopo un certo lasso di tempo.
La congestione in un nodo si propaga facilmente anche ai nodi adiacenti: é dunque possibile creare effetti a cascata che si ripercuotano sul network intero, creando cosí una dinamica all’indietro.
Per un sistema non lineare a molti gradi di libertá il carico determina la dinamica, quindi il parametro di controllo é il numero di agenti caricato nel sistema.

     ∑              ∑
˙ni =     πij(ni)nj -     πij(nj)ni
      j              j
                      ∑
                         ni = N
                       i

I problemi di un tale sistema sono:

Tuttavia, per modificare i pesi é necessario trovare dei parametri di controllo, cosa per niente banale.
Spesso una congestione non puó essere evitata quindi si tende a gestirla, ossia si cerca di riportare la rete in una situazione di trasporto.
Nel caso lineare la soluzione stazionaria é semplicemente il vettore che indica quanti agenti porre nei vari nodi ⃗n = (n1,,nN) che soddisfi la condizione

˙n = - Ln

Le fluttuazioni sono inseribili nel sistema sotto forma di random walk, aggiungendo un parametro temperatura. Scelto un passo temporale, la transizione i j avrá probabilitá πijΔt di avvenire. La probabilitá di non muoversi in una determinata direzione é data da 1 - jπijΔt. Il passo Δt diventa quindi il tempo di evoluzione del sistema (tipicamente piccolo): imporre la linearitá rispetto ad esso evita processi non regolari (stocastici).
Una volta trovato l’autovalore nullo Ln = 0, la probabilitá di trovare la rete in un determinato stato é data da

          n1    nM
P (⃗n) = ¯n-1-...¯nM--M !
         n1!...nM !
(5.3)

5.2 Esempi

5.2.1 Optimal Velocity Model

L’OVM é un modello ad agente basato sulle seuguenti equazioni differenziali:

{
 x˙i(t) = vopt(xi+1(t - τ) - xi(t - τ))
           1
 x¨i(t) = - τ (x˙i(t) - vopt(xi+1(t) - xi(t)))
(5.4)

dove la seconda equazione deriva da i(t + τ) = i(t) + i(t)τ + o(τ2).