Matemàtiques / Mathematics

Índex

General

Història / History

Branques de les matemàtiques / Mathematics branches

...




estudia
Àlgebra Àlgebra elemental

Àlgebra computacional
  • algorismes

Àlgebra abstracta Àlgebra lineal
  • vectors
  • espais vectorials
  • transformacions lineals
  • aplicacions lineals
    • matrius
  • sistemes d'equacions lineals


Àlgebra universal
  • conjunt i col·lecció d'operacions que s'hi apliquen
    • teoria de grups
    • teoria d'anells
    • teoria de cossos


Geometria algebraica
  • combinació d'àlgebra abstracta i geometria
Anàlisi matemàtica Càlcul infinitesimal
  • teorema fonamental del càlcul
    • càlcul diferencial (derivada)
    • càlcul integral (integral)
Geometria

  • distància
  • posició
  • superfície
  • volum
  • forma
  • ...
Teoria de nombres

  • conjectura de Goldbach
  • conjectura dels nombres primers bessons
  • darrer teorema de Fermat
  • lema de Thue
  • hipòtesi de Riemann




Programari / Software

Càlcul / Calculus

  • The three central problems of calculus
    • The forward problem: given a curve, fins its slope everywhere
    • The backward problem: given a curve's slope everywhere, find the curve
    • The area problem: given a curve, find the area under it

Arrels / Roots


\sqrt[n]{x} = \cos{\left( k \frac{2\pi}{n} \right)} + i \sin{\left( k \frac{2\pi}{n} \right)}

x=2^n x=4
n=2
Arrels 2-èsimes de 4
\sqrt[2]{4}
Arrels 2-èsimes de 4
\sqrt[2]{4}
n=3
Arrels 3-èsimes de 8
\sqrt[3]{8}

Potències de les arrels cúbiques de 8 (svg)
Arrels 3-èsimes de 4
\sqrt[3]{4}
n=4
Arrels 4-èsimes de 16
\sqrt[4]{16}
Arrels 4-èsimes de 4
\sqrt[4]{4}
n=5
Arrels 5-èsimes de 32
\sqrt[5]{32}
Arrels 5-èsimes de 4
\sqrt[5]{4}
...

n \to \infty \lim_{n \to \infty} \sqrt[n]{x} = 1
Arrels inf-èsimes de 4
\sqrt[\infty]{4}

Exponencial i logaritme

...

exp
log
demostració aplicació
multiplicació a^b a^c = a^{b+c} \log_a(m·n) = \log_a(m) + \log_a(n) m = a^b \log_a(m) = b n = a^c \log_a(n) = c \log_a(m·n) = \log_a(a^b·a^c) = \log_a(a^{b+c}) = b + c = \log_a(m) + \log_a(n)
exponenciació (a^b)^c = a^{bc} \log_a(m^n) = n·\log_a(m)
\left(a^{\frac{1}{n}}\right)^n = a^{\frac{1}{n}n} = a ^1 = a \;\Rightarrow\; \boxed{ a^{\frac{1}{n}} = \sqrt[n]{a} }





...

limit
E_n(x) = \left(1+\frac{x}{n}\right)^n \mathrm e^x = \lim_{n \to \infty} E_n(x) = \lim_{n \to \infty} \left(1+\frac{x}{n}\right)^n \ln{(x)} = \ln{(x)} + i 2\pik \quad \Rightarrow \quad \boxed{\mathrm e^x = \mathrm e^x \mathrm e^{i2\pi k}}
\begin{aligned} E_n(y) &= \left( 1 + \frac{y}{n}\right)^n = x \\ L_n(x) &= y = n \left( \sqrt[n]{x} - 1 \right) \end{aligned} \ln{(x)} = \lim_{n \to \infty} L_n(x) = \lim_{n \to \infty} n \left( \sqrt[n]{x} - 1 \right) \left. \begin{array}{r} \ln{(x)} = \lim_{n \to \infty} n \left( \sqrt[n]{x} - 1 \right) \\ \href{#arrels}{\sqrt[n]{x}} = \sqrt[n]{x} \; \cos{\left(k \frac{2\pi}{n}\right)} + i \sqrt[n]{x} \; \sin{\left(k \frac{2\pi}{n}\right)} \end{array} \right\} \quad \ln{(x)} = \lim_{n \to \infty} n \left[ \sqrt[n]{x} \cos{\left(k \frac{2\pi}{n}\right)} - 1 + i \sqrt[n]{x} \; \sin{\left(k \frac{2\pi}{n}\right)} \right] = \left\{ \begin{array}{l} \left. \begin{array}{r} \Re : \quad \lim_{n \to \infty} n \left( \sqrt[n]{x} \cos{\left( \frac{2\pi k}{n} \right)} - 1\right) \\ \lim_{n \to \infty} \cos{\left( \frac{2\pi k}{n} \right)} = 1 \end{array} \right\} = \lim_{n \to \infty} n \left( \sqrt[n]{x} - 1\right) \triangleq \ln{(x)} \\ \left. \begin{array}{r} \Im : \quad \lim_{n \to \infty} n \sqrt[n]{x} \sin{\left( \frac{2\pi k}{n} \right)} \\ \lim_{n \to \infty} \sqrt[n]{x} = 1 \end{array} \right\} = \lim_{n \to \infty} \frac{\sin{ \left(\frac{2\pi k}{n}\right) }}{\frac{1}{n}} \stackrel{\text{(H)}}{=} \lim_{n \to \infty} \frac{ \cos{\left( \frac{2\pik}{n} \right)} \left(\frac{-2\pik}{n^2}\right) }{-\frac{1}{n^2}} = 2\pik \lim_{n \to \infty} \cos{\left( \frac{2\pik}{n} \right)} = 2\pik \end{array} \right\} \Rightarrow \boxed{ \ln{(x)} = \ln{(x)} + i 2\pik }

Trigonometria / Trigonometry

Teorema del sinus (wp) \frac{a}{\sin \hat{A}}=\frac{b}{\sin \hat{B}}=\frac{c}{\sin \hat{C}}
Teorema del cosinus (wp) a^2 = b^2 + c^2 - 2bc\, \cos \hat{A} b^2 = a^2 + c^2 - 2ac\, \cos \hat{B} c^2 = a^2 + b^2 - 2ab\, \cos \hat{C}

Derivades / Derivatives

  • Derivades de funcions elementals:
    funció f(x) derivada f'(x) demostració
    k 0
    kx k
    x^{n} nx^{n-1}
    a^x a^x · \ln{a}
    e^x e^x
    \log_{a}x \frac{1}{x · \ln{a}}
    \ln{x} \frac{1}{x}
    \sin{x} \cos{x}
    \cos{x} -\sin{x}
    \tan{x} \frac{1}{\cos^2{x}}
    \arcsin{x} \frac{1}{\sqrt{1-x^2}}
    \arccos{x} \frac{-1}{\sqrt{1-x^2}}
    \arctan{x} \frac{1}{1+x^2}
  • Propietats:


    derivada
    suma f(x) + g(x) f'(x) + g'(x)
    producte f(x) · g(x) f'(x)·g(x) + f(x)·g'(x)
    divisió \frac{f(x)}{g(x)} \frac{f'(x)·g(x) - f(x)·g'(x)}{g^2(x)}
    regla de la cadena f(x) \circ g(x) = f(g(x)) f'(g(x)) · g'(x)
    ...

  • ...

Derivades parcials / Partial derivatives

  • Càlcul vectorial (wp)
  • Divergence and curl: the language of Maxwell's equations, fluid flow, and more (3blue1brown)
  • des de: operador nabla: \nabla = \left( \frac{\partial}{\partial x}, \frac{\partial}{\partial y}, \frac{\partial}{\partial z} \right) a: expressa: exemples
    camp escalar gradient: \nabla f = \left( \frac{\partial f}{\partial x}, \frac{\partial f}{\partial y}, \frac{\partial f}{\partial z} \right) camp vectorial direcció i magnitud de la màxima variació en un punt
    camp vectorial divergència / divergence: \nabla \cdot \mathbf{F} = \frac{\partial F_x}{\partial x} + \frac{\partial F_y}{\partial y} + \frac{\partial F_z}{\partial z} camp escalar flux net d'entrada (<0) i sortida (>0) donada una regió Maxwell: \nabla \cdot \mathbf{E} = \frac{\rho}{\epsilon_0} \nabla \cdot \mathbf{B} = 0
    camp vectorial rotacional / curl:\nabla \times \mathbf{F} = \begin{vmatrix} \hat{i} & \hat{j} & \hat{k} \\ \frac{\partial}{\partial x} & \frac{\partial}{\partial y} & \frac{\partial}{\partial z} \\ F_x & F_y & F_z \end{vmatrix} camp vectorial efecte de rotació en un punt (com si hi hagués un molinet), provocat pel camp vectorial Maxwell: \nabla \times \mathbf{E} = - \frac{\partial \mathbf{B}}{\partial t} \nabla \times \mathbf{B} = \mu_0 \left(\mathbf{J} + \epsilon_0 \frac{\partial \mathbf{E}}{\partial t} \right)

    operador laplacià (divergència del gradient): \Delta = \nabla \cdot \nabla = \nabla ^ 2


    camp escalar \Delta f = (\nabla \cdot \nabla) f = \nabla^2 f = \frac{\partial^2 f}{\partial x^2} + \frac{\partial^2 f}{\partial y^2} + \frac{\partial^2 f}{\partial x^2}


  • ...

Vectors

  • Producte:


    resultat exemples i aplicacions
    producte d'un vector per un escalar k \vec{A} un vector amb la mateixa direcció i mòdul multiplicat per k
    producte escalar / dot product \vec{A}\cdot\vec{B} = |\vec{A}| |\vec{B}| \cos{\theta} = a_x b_x + a_y b_y un escalar:
    • si és 0: els vectors són perpendiculars
    • si és 1: p.ex. el producte escalar d'un vector unitari per ell mateix
    • angle que formen dos vectors:\cos{\theta} = \frac{a_x b_x + a_y b_y}{|\vec{A}||\vec{B}|}
    • treball: W = \vec{F} \cdot \Delta \vec{r} = \int_{\vec{r_a}}^{\vec{r_b}} \vec{F} \cdot d\vec{r}
    • flux d'un camp magnètic
    producte vectorial / cross product \vec{A}\times\vec{B} = \begin{vmatrix} \vec{i} & \vec{j} & \vec{k} \\ A_x & A_y & A_z \\ B_x & B_y & B_z \end{vmatrix} un altre vector, ortogonal a tots dos vectors
    • direcció segons la regla de la mà dreta, amb els dits des d'A cap a B
    • mòdul (àrea del paral·lelogram) |\vec{A} \times \vec{B}| = |\vec{A}| |\vec{B}| \sin{\alpha}

Matrius

  • ...
  • Tipus
    tipus
    fila: 1 \times n \begin{pmatrix} a & b \end{pmatrix}
    columna: m \times 1 \begin{pmatrix} a \\ b \end{pmatrix}
    nul·la: 0 = \begin{pmatrix} 0 & 0 & 0 \\ 0 & 0 & 0\end{pmatrix}
    quadrada: n \times n \begin{pmatrix} a & b & c \\ d & e & f \\ g & h & i\end{pmatrix} triangular superior: \begin{pmatrix} a & b & c \\ 0 & e & f \\ 0 & 0 & i\end{pmatrix}
    triangular inferior: \begin{pmatrix} a & 0 & 0 \\ d & e & 0 \\ g & h & i\end{pmatrix}
    diagonal: \begin{pmatrix} a & 0 & 0 \\ 0 & e & 0 \\ 0 & 0 & i\end{pmatrix}
    identitat: I_3 = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1\end{pmatrix}
    rectangular: m \times n \begin{pmatrix} a & b & c \\ d & e & f \\ g & h & i \\ j & k & l\end{pmatrix}
  • Operacions:

    interpretació geomètrica
    propietats mètodes programari





    octave python numpy
    matriu transformació que s'aplicarà a un vector (vertical)
    A = \begin{pmatrix} a & b & c \\ d & e & f \end{pmatrix} B = \begin{pmatrix} g & h & i \\ j & k & l \end{pmatrix} C = \begin{pmatrix} o & p \\ q & r \\ s & t \end{pmatrix}

    A = [1 2 3; 4 5 6]
    B = [7 8 9; 10 11 12]
    C = [1 2; 3 4; 5 6]

    import numpy

    A = numpy.array([[1,2,3],[4,5,6]])
    B = numpy.array([[7,8,9], [10,11,12]])
    C = numpy.array([[1,2],[3,4],[5,6]])
    matriu identitat



    I = eye(3,4)
    transposició
    A^t = \begin{pmatrix} a & d \\ b & e \\ c & f \end{pmatrix}
    • matriu simètrica, si: A = A^t
    • matriu antisimètrica, si: -A = A^t



    suma
    A + B = \begin{pmatrix} a+g & b+h & c+i \\ d+j & e+k & f+l \end{pmatrix}
    • commutativa: A + B = B + A
    • associativa: A + (B + C) = (A + B) + C
    • element neutre: 0, perquè A + 0 = A
    • element oposat: -A, perquè A + (-A) = 0 (element neutre)

    A+B

    producte per un escalar
    k A = \begin{pmatrix} ka & kb & kc \\ kd & ke & kf \end{pmatrix}



    matriu que multiplica un vector transformació lineal del vector cap a un nou vector




    producte d'una matriu fila per una matriu columna:
    ...



    producte de dues matrius composició de transformacions
    (Matrix multiplication as composition)
    A \cdot C = \begin{pmatrix} ao + bq + cs & ap + br + ct \\ do + eq + fs & dp + er + ft \end{pmatrix}
    multiplicacio_matrius
    • associativa: (A \cdot B) \cdot C = A \cdot (B \cdot C)
    • element neutre: I_m \cdot A = A \cdot I_n = A
    • distributiva:
      • per l'esquerra: A \cdot (B + C) = A \cdot B + A \cdot C
      • per la dreta: (B + C) \cdot A = B \cdot A + C \cdot A

    A*C
    numpy.matmul(A, C)
    rang dimensió de l'espai de sortida \text{rang}(A) nombre de files o de columnes no
    nul·les linealment independents

    • Gauss: el rang és el nombre de files no nul·les de la matriu final triangular superior \begin{pmatrix} a & b & c & d \\ e & f & g & h \\ i & j & k & l \end{pmatrix} \xrightarrow[\text{i transposicions}]{\text{operacions lineals}} \begin{pmatrix} o & p & q & r \\ 0 & s & t & u \\ 0 & 0 & v & w \end{pmatrix}
    rank(A)
    rank(B)
    rank(C)

    numpy.linalg.matrix_rank(A)


    ...



    matriu quadrada



    A = [1 2; 3 4] A = numpy.array([[1,2],[3,4]])
    matriu identitat quadrada



    I = eye(2)
    inversió d'una matriu quadrada
    A^{-1} tal que: A \cdot A^{-1} = I_n
    • una matriu quadrada (n \times n) només té inversa si: \text{rang}(A) = n
    • matriu regular o inversible: existeix la seva inversa
    • matriu singular: no existeix la seva inversa
    • (A^{-1})^{-1} = A
    • (AB)^{-1} = B^{-1} A^{-1}
    • (A^t)^{-1} = (A^{-1})^t
    • Gauss-Jordan: \left( \begin{aligned} a & b & c \\ d & e & f \\ g & h & i \end{aligned} \right| \left. \begin{aligned} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{aligned} \right) \xrightarrow[\text{i transposicions}]{\text{operacions lineals}} \left( \begin{aligned} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{aligned} \right| \left. \begin{aligned} j & k & l \\ m & n & o \\ p & q & r \end{aligned} \right) la matriu inversa és: A^{-1} = \begin{pmatrix} j & k & l \\ m & n & o \\ p & q & r \end{pmatrix}
    inv(A)
    numpy.linalg.inv(A)
    determinant d'una matriu quadrada com queda afectada l'àrea (2D)
    o el volum (3D) un cop aplicada la transformació



    det(A)
    numpy.linalg.det(A)
  • ...

Equacions diferencials / Differential equations

Transformades / Transforms

Probabilitat

  • Combinatòria d'n elements disponibles, agafats d'm en m

    es repeteixen
    elements?
    importa
    l'ordre?

    m columnes
    exemples
    variacions no

    V_{n,m} = \frac{n!}{(n-m)!}
    n n-1 n-2 ... n-m+1
    n=7, m=3
    7 6 5
    variacions amb repetició

    VR_{n,m} = n^m
    n n n
    n=7, m=3
    7 7 7
    permutacions no

    P_{n} = V_{n,m} = n!
    n n-1 n-2 ... 1
    n=7, m=3
    7 6 5 4 3 2 1
    combinacions no
    no
    C_{n,m} = \binom{n}{m} = \frac{V_{n,m}}{P_m} = \frac{n!}{m!(n-m)!} dividim per les permutacions perquè no importa l'ordre

  • Probabilitat
    • Llei dels grans nombres: la probabilitat és el nombre cap al qual tendeixen les freqüències relatives d'un esdeveniment quan l'experiment aleatori es repeteix un nombre elevat de vegades
    • Regla de Laplace: en un experiment aleatori regular (tots els esdeveniments elementals tenen la mateixa probabilitat), la probabilitat d'un esdeveniment A es calcula com el quocient entre nombre de casos favorables a A i el nombre de casos possibles.
      • d'un bossa amb 3 boles blanques i 5 boles negres, quina és la probabilitat que quan es treu una bola, sigui blanca?: 3/8
      • d'un bossa amb 3 boles blanques i 5 boles negres, quina és la probabilitat que quan es treuen dues boles, totes dues siguin blanques?: ...
    • Propietats

      condicions espai mostral /
      casos totals
      • individuals
      • combinacions
      probabilitat

      exemples
      Regla de Laplace


      • tots els esdeveniments elementals
        tenen la mateixa probabilitat



      Espai mostral E
      Probabilitat A P(A) = \frac{\text{nombre casos favorables a A}}{\text{nombre casos possibles}} Probabilitat A+B
      P(A) + P(B)
      donat quan quina és la probabilitat? solució
      bossa amb 3 boles blanques i 5 negres s'extreu una bola que sigui blanca 3/5

      s'extreuen dues boles alhora que siguin una blanca i una negra ...




      Probabiliat B
      P(B) = \frac{\text{nombre casos favorables a B}}{\text{nombre casos possibles}}

      Probabilitat A int B
      P(A\capB)
      Probabilitat A i B + A u B
      P(A \cap B) + P(A \cup B)

      Probabilitat A u B
      P(A \cup B) = P(A) + P(B) - P(A \cap B) (es resta la intersecció per a eliminar la zona que s'ha comptat dues vegades)

      Probabilitat condicionada
      sabent que s'ha produït A
      Espai mostral A Probabilitat B condicionada A P(B|A) = \frac{P(A \cap B)}{P(A)} demostració: \begin{aligned} P(B|A) &= \frac{\text{nombre casos favorables a B en E'}}{\text{nombre casos possibles en E'}} = \\ &= \frac{\text{nombre casos favorables a B en A}}{\text{nombre casos possibles en A}} = \\ &= \frac{\frac{\text{nombre casos favorables a B i A}}{\text{nombre casos possibles en E}}}{\frac{\text{nombre casos possibles en A}}{\text{nombre casos possibles en E}}} = \\ &= \frac{P(B \cap A)}{P(A)} \end{aligned} \boxed{P(A \cap B) = P(A) \cdot P(B|A)} si són independents
      (l'ocurrència de B no té res a veure amb la d'A): P(A \cap B) = P(A) \cdot P(B)

      sabent que s'ha produït B
      Espai mostral B Probabilitat A condicionada B P(A|B) = \frac{P(A \cap B)}{P(B)} \boxed{P(A \cap B) = P(B) \cdot P(A|B)}
      Teorema de la probabilitat total
      • són incompatibles entre ells: A_i \cap A_j = \varnothing, \text{si} \, i \neq j
      • la seva unió és l'espai mostral: A_1 \cup A_2 \cup ... A_n = E
      Arbre suma total P(B) = \sum_{i=1}^{n} P(A_i) \cdot P(B | A_i) (suma de tots els camins possibles per a arribar a B) Teorema de Bayes
      a posteriori: coneixent P(B | A_i), permet trobar P(A_j | B) \boxed{ P(A_j | B) = \frac{P(A_j) \cdot P(B | A_j)}{P(B)}} Fórmula de Bayes \boxed{ P(A_j | B) = \frac{P(A_j) \cdot P(B | A_j)}{\sum_{i=1}^{n} P(A_i) \cdot P(B | A_i)}} demostració (esquerra i dalt): \left. \begin{array}{r} P(A_j \cap B) = P(B) \cdot P(A_j | B) \\ P(A_j \cap B) = P(A_j) \cdot P(B | A_j) \\ P(B) = \sum_{i=1}^{n} P(A_i) \cdot P(B | A_i) \end{array} \right\}

    • ...

Matemàtiques aplicades

http://www.francescpinyol.cat/matematiques.html
Primera versió: / First version: 27.XI.2021
Darrera modificació: 2 de març de 2024 / Last update: 2nd March 2024

Valid HTML 4.01!

Cap a casa / Back home.