Espaços lineares. Subespaços


Quando examinamos os conceitos de um vetor n-dimensional e introduzimos operações sobre vetores, descobrimos que o conjunto de todos os vetores n-dimensionais gera um espaço linear. Neste artigo falaremos sobre os conceitos relacionados mais importantes - a dimensão e a base de um espaço vetorial. Consideraremos também o teorema da expansão de um vetor arbitrário em uma base e a conexão entre várias bases do espaço n-dimensional. Vamos examinar detalhadamente as soluções para exemplos típicos.

Navegação na página.

O conceito de dimensão de espaço vetorial e base.

Os conceitos de dimensão e base de um espaço vetorial estão diretamente relacionados ao conceito de sistema de vetores linearmente independente, portanto, se necessário, recomendamos que você consulte o artigo dependência linear de um sistema de vetores, propriedades de dependência linear e independência .

Definição.

Dimensão do espaço vetorialé um número igual ao número máximo de vetores linearmente independentes neste espaço.

Definição.

Base do espaço vetorialé um conjunto ordenado de vetores linearmente independentes deste espaço, cujo número é igual à dimensão do espaço.

Vamos apresentar alguns raciocínios baseados nessas definições.

Considere o espaço de vetores n-dimensionais.

Vamos mostrar que a dimensão deste espaço é n.

Tomemos um sistema de n vetores unitários da forma

Vamos considerar esses vetores como linhas da matriz A. Neste caso, a matriz A será uma matriz identidade de dimensão n por n. A classificação desta matriz é n (consulte o artigo se necessário). Portanto, o sistema de vetores é linearmente independente, e nenhum vetor pode ser adicionado a este sistema sem violar sua independência linear. Como o número de vetores no sistema é igual a n, então a dimensão do espaço de vetores n-dimensionais é n, e os vetores unitários são a base deste espaço.

Da última afirmação e definição da base podemos concluir que qualquer sistema de vetores n-dimensionais, cujo número de vetores é menor que n, não é uma base.

Agora vamos trocar o primeiro e o segundo vetores do sistema . É fácil mostrar que o sistema de vetores resultante também é uma base de um espaço vetorial n-dimensional. Vamos criar uma matriz tomando os vetores deste sistema como suas linhas. Esta matriz pode ser obtida a partir da matriz identidade trocando a primeira e a segunda linhas, portanto sua classificação será n. Assim, um sistema de n vetores é linearmente independente e é a base de um espaço vetorial n-dimensional.

Se reorganizarmos outros vetores do sistema , então obtemos outra base.

Se tomarmos um sistema linearmente independente de vetores não unitários, então ele também é a base de um espaço vetorial n-dimensional.

Por isso, um espaço vetorial de dimensão n tem tantas bases quantos sistemas linearmente independentes de vetores n n -dimensionais.

Se falamos de um espaço vetorial bidimensional (isto é, de um plano), então sua base são quaisquer dois vetores não colineares. A base do espaço tridimensional são quaisquer três vetores não coplanares.

Vejamos alguns exemplos.

Exemplo.

Os vetores são a base do espaço vetorial tridimensional?

Solução.

Vamos examinar este sistema de vetores quanto à dependência linear. Para fazer isso, vamos criar uma matriz cujas linhas serão as coordenadas dos vetores e encontrar sua classificação:


Assim, os vetores a, b e c são linearmente independentes e seu número é igual à dimensão do espaço vetorial, portanto, são a base deste espaço.

Responder:

Sim, eles estão.

Exemplo.

Um sistema de vetores pode ser a base de um espaço vetorial?

Solução.

Este sistema de vetores é linearmente dependente, pois o número máximo de vetores tridimensionais linearmente independentes é três. Conseqüentemente, este sistema de vetores não pode ser a base de um espaço vetorial tridimensional (embora um subsistema do sistema de vetores original seja uma base).

Responder:

Não, ele não pode.

Exemplo.

Certifique-se de que os vetores

pode ser a base de um espaço vetorial quadridimensional.

Solução.

Vamos criar uma matriz tomando os vetores originais como suas linhas:

Vamos encontrar:

Assim, o sistema de vetores a, b, c, d é linearmente independente e seu número é igual à dimensão do espaço vetorial, portanto, a, b, c, d são sua base.

Responder:

Os vetores originais são de fato a base do espaço quadridimensional.

Exemplo.

Os vetores formam a base de um espaço vetorial de dimensão 4?

Solução.

Mesmo que o sistema vetorial original seja linearmente independente, o número de vetores nele contido não é suficiente para ser a base de um espaço quadridimensional (a base de tal espaço consiste em 4 vetores).

Responder:

Não, isso não acontece.

Decomposição de um vetor segundo a base do espaço vetorial.

Deixe vetores arbitrários são a base de um espaço vetorial n-dimensional. Se adicionarmos algum vetor n-dimensional x a eles, então o sistema de vetores resultante será linearmente dependente. A partir das propriedades da dependência linear sabemos que pelo menos um vetor de um sistema linearmente dependente é expresso linearmente através dos outros. Em outras palavras, pelo menos um dos vetores de um sistema linearmente dependente é expandido nos vetores restantes.

Isso nos leva a um teorema muito importante.

Teorema.

Qualquer vetor de um espaço vetorial n-dimensional pode ser decomposto exclusivamente em uma base.

Prova.

Deixar - base do espaço vetorial n-dimensional. Vamos adicionar um vetor n-dimensional x a esses vetores. Então o sistema de vetores resultante será linearmente dependente e o vetor x pode ser expresso linearmente em termos de vetores : , onde estão alguns números. Foi assim que obtivemos a expansão do vetor x em relação à base. Resta provar que esta decomposição é única.

Suponhamos que exista outra decomposição, onde - alguns números. Subtraímos dos lados esquerdo e direito da última igualdade os lados esquerdo e direito da igualdade, respectivamente:

Como o sistema de vetores de base é linearmente independente, então pela definição de independência linear de um sistema de vetores, a igualdade resultante só é possível quando todos os coeficientes são iguais a zero. Portanto, , o que prova a unicidade da decomposição vetorial em relação à base.

Definição.

Os coeficientes são chamados coordenadas do vetor x na base .

Depois de nos familiarizarmos com o teorema sobre a decomposição de um vetor em uma base, começamos a entender a essência da expressão “nos é dado um vetor n-dimensional " Esta expressão significa que estamos considerando um vetor de espaço vetorial x n -dimensional, cujas coordenadas são especificadas em alguma base. Ao mesmo tempo, entendemos que o mesmo vetor x em outra base do espaço vetorial n-dimensional terá coordenadas diferentes de .

Vamos considerar o seguinte problema.

Seja-nos dado um sistema de n vetores linearmente independentes em alguma base do espaço vetorial n-dimensional

e vetor . Então os vetores também são a base deste espaço vetorial.

Precisamos encontrar as coordenadas do vetor x na base . Vamos denotar essas coordenadas como .

Vetor x na base tem uma ideia. Vamos escrever esta igualdade na forma de coordenadas:

Esta igualdade é equivalente a um sistema de n equações algébricas lineares com n variáveis ​​desconhecidas :

A matriz principal deste sistema tem a forma

Vamos denotar isso pela letra A. As colunas da matriz A representam vetores de um sistema de vetores linearmente independente , então a classificação desta matriz é n, portanto seu determinante é diferente de zero. Este fato indica que o sistema de equações possui uma solução única que pode ser encontrada por qualquer método, por exemplo, ou.

Desta forma, as coordenadas necessárias serão encontradas vetor x na base .

Vejamos a teoria usando exemplos.

Exemplo.

Em alguma base do espaço vetorial tridimensional, os vetores

Certifique-se de que o sistema de vetores também é uma base deste espaço e encontre as coordenadas do vetor x nesta base.

Solução.

Para que um sistema de vetores seja a base de um espaço vetorial tridimensional, ele deve ser linearmente independente. Vamos descobrir isso determinando a classificação da matriz A, cujas linhas são vetores. Vamos encontrar a classificação usando o método Gaussiano


portanto, Rank(A) = 3, que mostra a independência linear do sistema de vetores.

Então, os vetores são a base. Deixe o vetor x ter coordenadas nesta base. Então, como mostramos acima, a relação entre as coordenadas deste vetor é dada pelo sistema de equações

Substituindo nela os valores conhecidos da condição, obtemos

Vamos resolver usando o método de Cramer:

Assim, o vetor x na base tem coordenadas .

Responder:

Exemplo.

Em alguma base de um espaço vetorial quadridimensional, um sistema de vetores linearmente independente é dado

Sabe-se que . Encontre as coordenadas do vetor x na base .

Solução.

Como o sistema de vetores linearmente independente por condição, então é uma base do espaço quadridimensional. Então igualdade significa que o vetor x na base tem coordenadas. Vamos denotar as coordenadas do vetor x na base Como .

Sistema de equações que definem a relação entre as coordenadas do vetor x em bases E parece

Substituímos valores conhecidos nele e encontramos as coordenadas necessárias:

Responder:

.

Relação entre bases.

Sejam dois sistemas de vetores linearmente independentes dados em alguma base de um espaço vetorial n-dimensional

E

ou seja, são também as bases deste espaço.

Se - coordenadas do vetor na base , então a conexão de coordenadas E é dado por um sistema de equações lineares (falamos sobre isso no parágrafo anterior):

, que em forma de matriz pode ser escrita como

Da mesma forma, para um vetor, podemos escrever

As igualdades matriciais anteriores podem ser combinadas em uma, o que essencialmente define a relação entre os vetores de duas bases diferentes

Da mesma forma, podemos expressar todos os vetores de base através da base :

Definição.

Matriz chamado matriz de transição da base para a base , então a igualdade é verdadeira

Multiplicando ambos os lados desta igualdade a partir da direita por

Nós temos

Vamos encontrar a matriz de transição, mas não nos deteremos em detalhes sobre como encontrar a matriz inversa e multiplicar matrizes (ver artigos e se necessário):

Resta descobrir a relação entre as coordenadas do vetor x nas bases dadas.

Deixe o vetor x ter coordenadas na base, então

e na base o vetor x tem coordenadas , então

Como os lados esquerdos das duas últimas igualdades são iguais, podemos igualar os lados direitos:

Se multiplicarmos ambos os lados à direita por

então obtemos


Por outro lado

(encontre você mesmo a matriz inversa).
As duas últimas igualdades nos dão a relação necessária entre as coordenadas do vetor x nas bases e.

Responder:

A matriz de transição de base para base tem a forma
;
coordenadas do vetor x em bases e estão relacionadas pelas relações

ou
.

Examinamos os conceitos de dimensão e base de um espaço vetorial, aprendemos a decompor um vetor em uma base e descobrimos a conexão entre diferentes bases do espaço vetorial n-dimensional por meio da matriz de transição.

O espaço linear V é chamado n-dimensional, se nele houver um sistema de n vetores linearmente independentes, e qualquer sistema de mais vetores for linearmente dependente. O número n é chamado dimensão (número de dimensões) espaço linear V e é denotado \nomedooperador(dim)V. Em outras palavras, a dimensão de um espaço é o número máximo de vetores linearmente independentes deste espaço. Se tal número existir, então o espaço é chamado de dimensão finita. Se, para qualquer número natural n, no espaço V existe um sistema que consiste em n vetores linearmente independentes, então tal espaço é chamado de dimensão infinita (escreva: \nomedooperador(dim)V=\infty). A seguir, salvo indicação em contrário, serão considerados espaços de dimensão finita.


Base Um espaço linear n-dimensional é uma coleção ordenada de n vetores linearmente independentes ( vetores de base).


Teorema 8.1 sobre a expansão de um vetor em termos de base. Se é a base de um espaço linear n-dimensional V, então qualquer vetor \mathbf(v)\in V pode ser representado como uma combinação linear de vetores de base:


\mathbf(v)=\mathbf(v)_1\cdot \mathbf(e)_1+\mathbf(v)_2\cdot \mathbf(e)_2+\ldots+\mathbf(v)_n\cdot \mathbf(e)_n


e, além disso, da única maneira, ou seja, chances \mathbf(v)_1, \mathbf(v)_2,\ldots, \mathbf(v)_n são determinados de forma inequívoca. Em outras palavras, qualquer vetor de espaço pode ser expandido em uma base e, além disso, de forma única.


Na verdade, a dimensão do espaço V é igual a n. Sistema vetorial \mathbf(e)_1,\mathbf(e)_2,\ldots,\mathbf(e)_n linearmente independente (esta é uma base). Após adicionar qualquer vetor \mathbf(v) à base, obtemos um sistema linearmente dependente \mathbf(e)_1,\mathbf(e)_2,\ldots,\mathbf(e)_n, \mathbf(v)(já que este sistema consiste em (n+1) vetores do espaço n-dimensional). Usando a propriedade de 7 vetores linearmente dependentes e linearmente independentes, obtemos a conclusão do teorema.


Corolário 1. Se \mathbf(e)_1,\mathbf(e)_2,\ldots,\mathbf(e)_né a base do espaço V, então V=\nomedooperador(Lin) (\mathbf(e)_1,\mathbf(e)_2, \ldots,\mathbf(e)_n), ou seja um espaço linear é a extensão linear dos vetores de base.


Na verdade, para provar a igualdade V=\nomedooperador(Lin) (\mathbf(e)_1,\mathbf(e)_2, \ldots, \mathbf(e)_n) dois conjuntos, basta mostrar que as inclusões V\subconjunto \operatorname(Lin)(\mathbf(e)_1,\mathbf(e)_2, \ldots,\mathbf(e)_n) e são executados simultaneamente. Na verdade, por um lado, qualquer combinação linear de vetores num espaço linear pertence ao próprio espaço linear, ou seja, \operatorname(Lin)(\mathbf(e)_1,\mathbf(e)_2,\ldots,\mathbf(e)_n)\subconjunto V. Por outro lado, de acordo com o Teorema 8.1, qualquer vetor do espaço pode ser representado como uma combinação linear de vetores de base, ou seja, V\subconjunto \operatorname(Lin)(\mathbf(e)_1,\mathbf(e)_2,\ldots,\mathbf(e)_n). Isso implica a igualdade dos conjuntos em consideração.


Corolário 2. Se \mathbf(e)_1,\mathbf(e)_2,\ldots,\mathbf(e)_n- um sistema linearmente independente de vetores do espaço linear V e qualquer vetor \mathbf(v)\in V pode ser representado como uma combinação linear (8.4): \mathbf(v)=v_1\mathbf(e)_1+ v_2\mathbf(e)_2+\ldots+v_n\mathbf(e)_n, então o espaço V tem dimensão n, e o sistema \mathbf(e)_1,\mathbf(e)_2, \ldots,\mathbf(e)_né a sua base.


Na verdade, no espaço V existe um sistema de n vetores linearmente independentes, e qualquer sistema \mathbf(u)_1,\mathbf(u)_2,\ldots,\mathbf(u)_n de um número maior de vetores (k>n) é linearmente dependente, uma vez que cada vetor deste sistema é expresso linearmente em termos de vetores \mathbf(e)_1,\mathbf(e)_2,\ldots,\mathbf(e)_n. Significa, \nomedooperador(dim) V=n E \mathbf(e)_1,\mathbf(e)_2,\ldots,\mathbf(e)_n- base V.

Teorema 8.2 sobre a adição de um sistema de vetores a uma base. Qualquer sistema linearmente independente de k vetores de espaço linear n-dimensional (1\leqslant k

Na verdade, seja um sistema linearmente independente de vetores no espaço n-dimensional V~(1\leqinclinação k . Vamos considerar a extensão linear desses vetores: L_k=\nomedooperador(Lin)(\mathbf(e)_1,\mathbf(e)_2,\ldots, \mathbf(e)_k). Qualquer vetor \mathbf(v)\em L_k formas com vetores \mathbf(e)_1,\mathbf(e)_2,\ldots, \mathbf(e)_k sistema linearmente dependente \mathbf(e)_1,\mathbf(e)_2,\ldots,\mathbf(e)_k,\mathbf(v), já que o vetor \mathbf(v) é expresso linearmente em termos dos demais. Como existem n vetores linearmente independentes no espaço n-dimensional, então L_k\ne V existe um vetor \mathbf(e)_(k+1)\em V, que não pertence a L_k. Complementando com este vetor um sistema linearmente independente \mathbf(e)_1,\mathbf(e)_2,\ldots,\mathbf(e)_k, obtemos um sistema de vetores \mathbf(e)_1,\mathbf(e)_2,\ldots,\mathbf(e)_k,\mathbf(e)_(k+1), que também é linearmente independente. Na verdade, se acabou por ser linearmente dependente, então do parágrafo 1 das observações 8.3 seguiu-se que \mathbf(e)_(k+1)\in \operatorname(Lin)(\mathbf(e)_1, \mathbf(e)_2, \ldots,\mathbf(e)_k)=L_k, e isso contradiz a condição \mathbf(e)_(k+1)\notin L_k. Então, o sistema de vetores \mathbf(e)_1,\mathbf(e)_2,\ldots, \mathbf(e)_k, \mathbf(e)_(k+1) Linearmente independente. Isso significa que o sistema original de vetores foi complementado com um vetor sem violar a independência linear. Continuamos da mesma maneira. Vamos considerar a extensão linear desses vetores: L_(k+1)=\operatorname(Lin) (\mathbf(e)_1, \mathbf(e)_2,\ldots, \mathbf(e)_k, \mathbf(e)_(k+1)). Se L_(k+1)=V , então \mathbf(e)_1,\mathbf(e)_2, \ldots,\mathbf(e)_k, \mathbf(e)_(k+1)- a base e o teorema estão provados. Se L_(k+1)\ne V , então complementamos o sistema \mathbf(e)_1,\mathbf(e)_2, \ldots,\mathbf(e)_k,\mathbf(e)_(k+1) vetor \mathbf(e)_(k+2)\notin L_(k+1) etc. O processo de adição terminará definitivamente, pois o espaço V tem dimensão finita. Como resultado, obtemos a igualdade V=L_n=\nomedooperador(Lin) (\mathbf(e)_1,\ldots,\mathbf(e)_k,\ldots,\mathbf(e)_n), do qual se segue que \mathbf(e)_1,\ldots,\mathbf(e)_k,\ldots,\mathbf(e)_n- base do espaço V. O teorema foi provado.

Notas 8.4


1. A base de um espaço linear é determinada de forma ambígua. Por exemplo, se \mathbf(e)_1,\mathbf(e)_2, \ldots, \mathbf(e)_né a base do espaço V, então o sistema de vetores \lambda \mathbf(e)_1,\lambda \mathbf(e)_2,\ldots,\lambda \mathbf(e)_n para qualquer \lambda\ne0 também é base de V . O número de vetores de base em diferentes bases do mesmo espaço de dimensão finita é, obviamente, o mesmo, uma vez que este número é igual à dimensão do espaço.


2. Em alguns espaços, frequentemente encontrados em aplicações, uma das bases possíveis, mais conveniente do ponto de vista prático, é chamada de padrão.


3. O Teorema 8.1 permite-nos dizer que uma base é um sistema completo de elementos de um espaço linear, no sentido de que qualquer vetor do espaço é expresso linearmente em termos de vetores de base.


4. Se o conjunto \mathbb(L) for um intervalo linear \operatorname(Lin)(\mathbf(v)_1,\mathbf(v)_2,\ldots,\mathbf(v)_k), então os vetores \mathbf(v)_1,\mathbf(v)_2,\ldots,\mathbf(v)_k são chamados de geradores do conjunto \mathbb(L) . Corolário 1 do Teorema 8.1 devido à igualdade V=\nomedooperador(Lin) (\mathbf(e)_1,\mathbf(e)_2,\ldots,\mathbf(e)_n) nos permite dizer que a base é sistema gerador mínimo espaço linear V, pois é impossível reduzir o número de geradores (remover pelo menos um vetor do conjunto \mathbf(e)_1, \mathbf(e)_2,\ldots,\mathbf(e)_n) sem violar a igualdade V=\nomedooperador(Lin)(\mathbf(e)_1,\mathbf(e)_2,\ldots,\mathbf(e)_n).


5. O teorema 8.2 nos permite dizer que a base é sistema máximo de vetores linearmente independente espaço linear, uma vez que a base é um sistema de vetores linearmente independente e não pode ser complementado com nenhum vetor sem perder a independência linear.


6. O Corolário 2 do Teorema 8.1 é conveniente para usar para encontrar a base e a dimensão de um espaço linear. Em alguns livros didáticos é costume definir a base, a saber: sistema linearmente independente \mathbf(e)_1,\mathbf(e)_2,\ldots,\mathbf(e)_n de vetores de um espaço linear é chamado de base se qualquer vetor do espaço é expresso linearmente em termos de vetores \mathbf(e)_1,\mathbf(e)_2,\ldots,\mathbf(e)_n. O número de vetores de base determina a dimensão do espaço. Naturalmente, estas definições são equivalentes às dadas acima.

Exemplos de bases de espaços lineares

Indiquemos a dimensão e a base para os exemplos de espaços lineares discutidos acima.


1. O espaço linear zero \(\mathbf(o)\) não contém vetores linearmente independentes. Portanto, a dimensão deste espaço é assumida como zero: \dim\(\mathbf(o)\)=0. Este espaço não tem base.


2. Os espaços V_1,\,V_2,\,V_3 possuem dimensões 1, 2, 3, respectivamente. Na verdade, qualquer vetor diferente de zero do espaço V_1 forma um sistema linearmente independente (ver ponto 1 das Observações 8.2), e quaisquer dois vetores diferentes de zero do espaço V_1 são colineares, ou seja, linearmente dependente (ver exemplo 8.1). Consequentemente, \dim(V_1)=1, e a base do espaço V_1 é qualquer vetor diferente de zero. Da mesma forma, está provado que \dim(V_2)=2 e \dim(V_3)=3 . A base do espaço V_2 são quaisquer dois vetores não colineares tomados em uma determinada ordem (um deles é considerado o primeiro vetor de base, o outro - o segundo). A base do espaço V_3 são quaisquer três vetores não coplanares (não situados no mesmo plano ou em planos paralelos), tomados em uma determinada ordem. A base padrão em V_1 é o vetor unitário \vec(i) na reta. A base padrão em V_2 é a base \vec(i),\,\vec(j), consistindo em dois vetores unitários do plano mutuamente perpendiculares. A base padrão no espaço V_3 é considerada a base \vec(i),\,\vec(j),\,\vec(k), composto por três vetores unitários, perpendiculares aos pares, formando um triplo à direita.


3. O espaço \mathbb(R)^n não contém mais do que n vetores linearmente independentes. Na verdade, vamos pegar k colunas de \mathbb(R)^n e formar uma matriz de tamanhos n\times k a partir delas. Se k>n, então as colunas são linearmente dependentes, pelo Teorema 3.4, do posto da matriz. Por isso, \dim(\mathbb(R)^n)\leqslant n. No espaço \mathbb(R)^n não é difícil encontrar n colunas linearmente independentes. Por exemplo, as colunas da matriz identidade


\mathbf(e)_1=\begin(pmatrix)1\\0\\\vdots\\0\end(pmatrix)\!,\quad \mathbf(e)_2= \begin(pmatrix)0\\1\ \\vdots\\0\end(pmatrix)\!,\quad \ldots,\quad \mathbf(e)_n= \begin(pmatrix) 0\\0\\\vdots\\1 \end(pmatrix)\ !.


Linearmente independente. Por isso, \dim(\mathbb(R)^n)=n. O espaço \mathbb(R)^n é chamado espaço aritmético real ndimensional. O conjunto especificado de vetores é considerado a base padrão do espaço \mathbb(R)^n . Da mesma forma, está provado que \dim(\mathbb(C)^n)=n, portanto o espaço \mathbb(C)^n é chamado espaço aritmético complexo n-dimensional.


4. Lembre-se de que qualquer solução do sistema homogêneo Ax=o pode ser representada na forma x=C_1\varphi_1+C_2\varphi_2+\ldots+C_(nr)\varphi_(nr), Onde r=\nomedooperador(rg)A, a \varphi_1,\varphi_2,\ldots,\varphi_(n-r)- sistema fundamental de soluções. Por isso, \(Ax=o\)=\operatorname(Lin) (\varphi_1,\varphi_2,\ldots,\varphi_(n-r)), ou seja a base do espaço \(Ax=0\) de soluções de um sistema homogêneo é seu sistema fundamental de soluções, e a dimensão do espaço \dim\(Ax=o\)=n-r, onde n é o número de incógnitas , e r é a classificação da matriz do sistema.


5. No espaço M_(2\times3) de matrizes de tamanho 2\times3, você pode escolher 6 matrizes:


\begin(coletado)\mathbf(e)_1= \begin(pmatrix)1&0&0\\0&0&0\end(pmatrix)\!,\quad \mathbf(e)_2= \begin(pmatrix)0&1&0\\0&0&0\end( pmatrix)\!,\quad \mathbf(e)_3= \begin(pmatrix) 0&0&1\\0&0&0\end(pmatrix)\!,\hfill\\ \mathbf(e)_4= \begin(pmatrix) 0&0&0\\ 1&0&0 \end(pmatrix)\!,\quad \mathbf(e)_5= \begin(pmatrix)0&0&0\\0&1&0\end(pmatrix)\!,\quad \mathbf(e)_6= \begin(pmatrix)0&0&0 \\0&0&1\end(pmatriz)\!,\hfill \end(reunido)


que são linearmente independentes. Na verdade, sua combinação linear

\alpha_1\cdot \mathbf(e)_1+\alpha_2\cdot \mathbf(e)_2+\alpha_3\cdot \mathbf(e)_3+ \alpha_4\cdot \mathbf(e)_4+\alpha_5\cdot \mathbf(e)_5+ \alpha_6\cdot \mathbf(e)_6= \begin(pmatrix)\alpha_1&\alpha_2&\alpha_3\\ \alpha_4&\alpha_5&\alpha_6\end(pmatrix)


igual à matriz zero apenas no caso trivial \alpha_1=\alpha_2= \ldots= \alpha_6=0. Depois de ler a igualdade (8.5) da direita para a esquerda, concluímos que qualquer matriz de M_(2\times3) é expressa linearmente através das 6 matrizes selecionadas, ou seja, M_(2\vezes)= \nomedooperador(Lin) (\mathbf(e)_1,\mathbf(e)_2,\ldots,\mathbf(e)_6). Por isso, \dim(M_(2\vezes3))=2\cdot3=6, e as matrizes \mathbf(e)_1, \mathbf(e)_2,\ldots,\mathbf(e)_6 são a base (padrão) deste espaço. Da mesma forma, está provado que \dim(M_(m\vezes n))=m\cponto n.


6. Para qualquer número natural n no espaço P(\mathbb(C)) de polinômios com coeficientes complexos, n elementos linearmente independentes podem ser encontrados. Por exemplo, polinômios \mathbf(e)_1=1, \mathbf(e)_2=z, \mathbf(e)_3=z^2,\,\ldots, \mathbf(e)_n=z^(n-1) são linearmente independentes, uma vez que sua combinação linear


a_1\cdot \mathbf(e)_1+a_2\cdot \mathbf(e)_2+\ldots+a_n\cdot \mathbf(e)_n= a_1+a_2z+\ldots+a_nz^(n-1)


igual ao polinômio zero (o(z)\equiv0) apenas no caso trivial a_1=a_2=\ldots=a_n=0. Como este sistema de polinômios é linearmente independente para qualquer número natural l, o espaço P(\mathbb(C)) tem dimensão infinita. Da mesma forma, concluímos que o espaço P(\mathbb(R)) de polinômios com coeficientes reais tem dimensão infinita. O espaço P_n(\mathbb(R)) de polinômios de grau não superior a n é de dimensão finita. Na verdade, os vetores \mathbf(e)_1=1, \mathbf(e)_2=x, \mathbf(e)_3=x^2,\,\ldots, \mathbf(e)_(n+1)=x^n formam uma base (padrão) deste espaço, uma vez que são linearmente independentes e qualquer polinômio de P_n(\mathbb(R)) pode ser representado como uma combinação linear destes vetores:


a_nx^n+\ldots+a_1x+a_0=a_0\cdot \mathbf(e)_1+a_1 \mathbf(e)_2+\ldots+a_n\cdot \mathbf(e)_(n+1). Por isso, \dim(P_n(\mathbb(R)))=n+1.


7. O espaço C(\mathbb(R)) de funções contínuas é infinitamente dimensional. Na verdade, para qualquer número natural n os polinômios 1,x,x^2,\ldots, x^(n-1), consideradas funções contínuas, formam sistemas linearmente independentes (ver exemplo anterior).


No espaço T_(\omega)(\mathbb(R)) binômios trigonométricos (de frequência \omega\ne0 ) com base de coeficientes reais formam monômios \mathbf(e)_1(t)=\sin\omega t,~\mathbf(e)_2(t)=\cos\omega t. Eles são linearmente independentes, pois a igualdade idêntica a\sin\omega t+b\cos\omega t\equiv0 só é possível no caso trivial (a=b=0) . Qualquer função do formulário f(t)=a\sin\omega t+b\cos\omega t expresso linearmente através dos básicos: f(t)=a\,\mathbf(e)_1(t)+b\,\mathbf(e)_2(t).


8. O espaço \mathbb(R)^X de funções reais definidas no conjunto X, dependendo do domínio de definição de X, pode ser de dimensão finita ou de dimensão infinita. Se X é um conjunto finito, então o espaço \mathbb(R)^X é de dimensão finita (por exemplo, X=\(1,2,\ldots,n\)). Se X for um conjunto infinito, então o espaço \mathbb(R)^X é de dimensão infinita (por exemplo, o espaço \mathbb(R)^N de sequências).


9. No espaço \mathbb(R)^(+) qualquer número positivo \mathbf(e)_1 diferente de um pode servir de base. Tomemos, por exemplo, o número \mathbf(e)_1=2 . Qualquer número positivo r pode ser expresso através de \mathbf(e)_1 , ou seja, representar na forma \alpha\cdot \mathbf(e)_1\dois pontos r=2^(\log_2r)=\log_2r\ast2=\alpha_1\ast \mathbf(e)_1, onde \alpha_1=\log_2r . Portanto, a dimensão deste espaço é 1, e o número \mathbf(e)_1=2 é a base.


10. Deixe \mathbf(e)_1,\mathbf(e)_2,\ldots,\mathbf(e)_né a base do espaço linear real V. Vamos definir funções escalares lineares em V definindo:


\mathcal(E)_i(\mathbf(e)_j)=\begin(casos)1,&i=j,\\ 0,&i\ne j.\end(casos)


Neste caso, devido à linearidade da função \mathcal(E)_i, para um vetor arbitrário obtemos \mathcal(E)(\mathbf(v))=\sum_(j=1)^(n)v_j \mathcal(E)(\mathbf(e)_j)=v_i.


Então, n elementos (covetores) são definidos \mathcal(E)_1, \mathcal(E)_2, \ldots, \mathcal(E)_n espaço conjugado V^(\ast) . Vamos provar isso \mathcal(E)_1, \mathcal(E)_2,\ldots, \mathcal(E)_n- base V^(\ast) .


Primeiro, mostramos que o sistema \mathcal(E)_1, \mathcal(E)_2,\ldots, \mathcal(E)_n Linearmente independente. Na verdade, tomemos uma combinação linear destes covetores (\alpha_1 \mathcal(E)_1+\ldots+\alpha_n\mathcal(E)_n)(\mathbf(v))= e igualá-lo à função zero


\mathbf(o)(\mathbf(v))~~ (\mathbf(o)(\mathbf(v))=0~ \forall \mathbf(v)\in V)\colon~ \alpha_1\mathcal(E )_1(\mathbf(v))+\ldots+\alpha_n\mathcal(E)_n(\mathbf(v))= \mathbf(o)(\mathbf(v))=0~~\forall \mathbf(v )\em V.


Substituindo nesta igualdade \mathbf(v)=\mathbf(e)_i,~ i=1,\ldots,n, Nós temos \alpha_1=\alpha_2\cdot= \alpha_n=0. Portanto, o sistema de elementos \mathcal(E)_1,\mathcal(E)_2,\ldots,\mathcal(E)_n espaço V^(\ast) é linearmente independente, já que a igualdade \alpha_1\mathcal(E)_1+\ldots+ \alpha_n\mathcal(E)_n =\mathbf(o) possível apenas em um caso trivial.


Em segundo lugar, provamos que qualquer função linear f\in V^(\ast) pode ser representada como uma combinação linear de covetores \mathcal(E)_1, \mathcal(E)_2,\ldots, \mathcal(E)_n. Na verdade, para qualquer vetor \mathbf(v)=v_1 \mathbf(e)_1+v_2 \mathbf(e)_2+\ldots+v_n \mathbf(e)_n devido à linearidade da função f obtemos:


\begin(aligned)f(\mathbf(v))&= f(v_1 \mathbf(e)_1+\ldots+v_n \mathbf(e)_n)= v_1 f(\mathbf(e)_1)+\ldots+ v_n f(\mathbf(e)_n)= f(\mathbf(e)_1)\mathcal(E)_1(\mathbf(v))+ \ldots+ f(\mathbf(e)_n)\mathcal(E) _n (\mathbf(v))=\\ &=(f(\mathbf(e)_1)\mathcal(E)_1+\ldots+ f(\mathbf(e)_n)\mathcal(E)_n)(\mathbf ( v))= (\beta_1\mathcal(E)_1+ \ldots+\beta_n\mathcal(E)_n) (\mathbf(v)),\end(aligned)


aqueles. função f é representada como uma combinação linear f=\beta_1 \mathcal(E)_1+\ldots+\beta_n\mathcal(E)_n funções \mathcal(E)_1,\mathcal(E)_2,\ldots, \mathcal(E)_n(números \beta_i=f(\mathbf(e)_i)- coeficientes de combinação linear). Portanto, o sistema covetor \mathcal(E)_1, \mathcal(E)_2,\ldots, \mathcal(E)_né uma base do espaço dual V^(\ast) e \dim(V^(\ast))=\dim(V)(para um espaço de dimensão finita V ).

Se você notar algum erro, erro de digitação ou tiver alguma sugestão, escreva nos comentários.

Um subconjunto de um espaço linear forma um subespaço se for fechado sob adição de vetores e multiplicação por escalares.

Exemplo 6.1. Um subespaço em um plano forma um conjunto de vetores cujas extremidades estão: a) no primeiro quarto; b) em uma reta que passa pela origem? (as origens dos vetores estão na origem das coordenadas)

Solução.

a) não, pois o conjunto não é fechado na multiplicação por um escalar: quando multiplicado por um número negativo, o final do vetor cai no terceiro quarto.

b) sim, pois ao somar vetores e multiplicá-los por qualquer número, suas extremidades permanecem na mesma reta.

Exercício 6.1. Os seguintes subconjuntos dos espaços lineares correspondentes formam um subespaço:

a) um conjunto de vetores planos cujas extremidades estão no primeiro ou terceiro quarto;

b) um conjunto de vetores planos cujas extremidades estão em uma linha reta que não passa pela origem;

c) um conjunto de retas coordenadas ((x 1, x 2, x 3)ï x 1 + x 2 + x 3 = 0);

d) conjunto de retas coordenadas ((x 1, x 2, x 3)ï x 1 + x 2 + x 3 = 1);

e) um conjunto de linhas coordenadas ((x 1, x 2, x 3)ï x 1 = x 2 2).

A dimensão de um espaço linear L é o número dim L de vetores incluídos em qualquer uma de suas bases.

As dimensões da soma e da intersecção dos subespaços estão relacionadas pela relação

escuro (U + V) = escuro U + escuro V – escuro (U Ç V).

Exemplo 6.2. Encontre a base e a dimensão da soma e interseção dos subespaços gerados pelos seguintes sistemas de vetores:

Solução: Cada um dos sistemas de vetores que geram os subespaços U e V é linearmente independente, o que significa que é uma base do subespaço correspondente. Vamos construir uma matriz a partir das coordenadas desses vetores, organizando-os em colunas e separando um sistema do outro com uma linha. Vamos reduzir a matriz resultante à forma gradual.

~ ~ ~ .

A base U + V é formada pelos vetores , , , aos quais correspondem os elementos principais da matriz escalonada. Portanto dim (U + V) = 3. Então

escuro (UÇV) = escuro U + escuro V – escuro (U + V) = 2 + 2 – 3 = 1.

A intersecção de subespaços forma um conjunto de vetores que satisfazem a equação (localizados nos lados esquerdo e direito desta equação). Obtemos a base de intersecção utilizando o sistema fundamental de soluções do sistema de equações lineares correspondente a esta equação vetorial. A matriz deste sistema já foi reduzida a uma forma gradual. Com base nisso, concluímos que y 2 é uma variável livre e definimos y 2 = c. Então 0 = y 1 – y 2, y 1 = c,. e a interseção de subespaços forma um conjunto de vetores da forma =c(3, 6, 3, 4). Consequentemente, a base UÇV forma o vetor (3, 6, 3, 4).



Notas. 1. Se continuarmos a resolver o sistema, encontrando os valores das variáveis ​​​​x, obtemos x 2 = c, x 1 = c, e no lado esquerdo da equação vetorial obtemos um vetor igual ao obtido acima .

2. Usando o método indicado, você pode obter a base da soma independentemente de os sistemas geradores de vetores serem linearmente independentes. Mas a base de intersecção só será obtida corretamente se pelo menos o sistema que gera o segundo subespaço for linearmente independente.

3. Se for determinado que a dimensão da intersecção é 0, então a intersecção não tem base e não há necessidade de procurá-la.

Exercício 6.2. Encontre a base e a dimensão da soma e interseção dos subespaços gerados pelos seguintes sistemas de vetores:

A)

b)

Espaço euclidiano

O espaço euclidiano é um espaço linear sobre um campo R, em que é definida uma multiplicação escalar que atribui a cada par de vetores, um escalar, e as seguintes condições são atendidas:

2) (a + b) = a() + b();

3) ¹Þ > 0.

O produto escalar padrão é calculado usando as fórmulas

(a 1 , … , a n) (b 1 , … , b n) = a 1 b 1 + … + a n b n.

Os vetores e são chamados de ortogonais, escritos ^ se seu produto escalar for igual a 0.

Um sistema de vetores é chamado ortogonal se os vetores nele são ortogonais aos pares.

Um sistema ortogonal de vetores é linearmente independente.

O processo de ortogonalização de um sistema de vetores,..., consiste na transição para um sistema ortogonal equivalente,..., realizado segundo as fórmulas:

, onde , k = 2,… , n.

Exemplo 7.1. Ortogonalizar um sistema de vetores

= (1, 2, 2, 1), = (3, 2, 1, 1), = (4, 1, 3, -2).

Solução Temos = = (1, 2, 2, 1);

, = = = 1;

= (3, 2, 1, 1) – (1, 2, 2, 1) = (2, 0, -1, 0).

, = = =1;

= =1;

= (4, 1, 3, -2) – (1, 2, 2, 1) – (2, 0, -1, 0) = (1, -1, 2, -3).

Exercício 7.1. Ortogonalizar sistemas vetoriais:

a) = (1, 1, 0, 2), = (3, 1, 1, 1), = (-1, -3, 1, -1);

b) = (1, 2, 1, 1), = (3, 4, 1, 1), = (0, 3, 2, -1).

Exemplo 7.2. Sistema completo de vetores = (1, -1, 1, -1),



= (1, 1, -1, -1), à base ortogonal do espaço.

Solução: O sistema original é ortogonal, então o problema faz sentido. Como os vetores são dados no espaço quadridimensional, precisamos encontrar mais dois vetores. O terceiro vetor = (x 1, x 2, x 3, x 4) é determinado a partir das condições = 0, = 0. Essas condições fornecem um sistema de equações, cuja matriz é formada a partir das linhas coordenadas dos vetores e . Resolvemos o sistema:

~ ~ .

As variáveis ​​​​livres x 3 e x 4 podem receber qualquer conjunto de valores diferente de zero. Assumimos, por exemplo, x 3 = 0, x 4 = 1. Então x 2 = 0, x 1 = 1 e = (1, 0, 0, 1).

Da mesma forma, encontramos = (y 1, y 2, y 3, y 4). Para fazer isso, adicionamos uma nova linha de coordenadas à matriz stepwise obtida acima e a reduzimos para a forma stepwise:

~ ~ .

Para a variável livre y 3 definimos y 3 = 1. Então y 4 = 0, y 2 = 1, y 1 = 0 e = (0, 1, 1, 0).

A norma de um vetor no espaço euclidiano é um número real não negativo.

Um vetor é dito normalizado se sua norma for 1.

Para normalizar um vetor, ele deve ser dividido pela sua norma.

Um sistema ortogonal de vetores normalizados é chamado ortonormal.

Exercício 7.2. Complete o sistema de vetores para uma base ortonormal do espaço:

a) = (1/2, 1/2, 1/2, 1/2), = (-1/2, 1/2, -1/2, 1/2);

b) = (1/3, -2/3, 2/3).

Mapeamentos lineares

Sejam U e V espaços lineares sobre o corpo F. Um mapeamento f: U ® V é chamado linear se e .

Exemplo 8.1. As transformações do espaço tridimensional são lineares:

uma) f(x 1, x 2, x 3) = (2x 1, x 1 – x 3, 0);

b) f(x 1, x 2, x 3) = (1, x 1 + x 2, x 3).

Solução.

a) Temos f((x 1, x 2, x 3) + (y 1, y 2, y 3)) = f(x 1 + y 1, x 2 + y 2, x 3 + y 3) =

= (2(x 1 + y 1), (x 1 + y 1) – (x 3 + y 3), 0) = (2x 1, x 1 – x 3, 0) + (2y 1, y 1 - e 3 , 0) =

F((x 1, x 2, x 3) + f(y 1, y 2, y 3));

f(l(x 1 , x 2 , x 3)) = f(lx 1 , lx 2 , lx 3) = (2lx 1 , lx 1 – lx 3 , 0) = l(2x 1 , x 1 – x 3 , 0) =

eu f(x 1, x 2, x 3).

Portanto, a transformação é linear.

b) Temos f((x 1 , x 2 , x 3) + (y 1 , y 2 , y 3)) = f(x 1 + y 1 , x 2 + y 2 , x 3 + y 3) =

= (1, (x 1 + y 1) + (x 2 + y 2), x 3 + y 3);

f((x 1 , x 2 , x 3) + f(y 1 , y 2 , y 3)) = (1, x 1 + x 2 , x 3) + (1, y 1 + y 2 , y 3) ) =

= (2, (x 1 + y 1) + (x 2 + y 2), x 3 + y 3) ¹ f((x 1, x 2, x 3) + (y 1, y 2, y 3) ).

Portanto, a transformação não é linear.

A imagem de um mapeamento linear f: U ® V é o conjunto de imagens de vetores de U, ou seja

Im (f) = (f() ï О U). +… + um m1

Exercício 8.1. Encontre a classificação, defeito, bases da imagem e kernel do mapeamento linear f dado pela matriz:

a) UMA = ; b)A = ; c) UMA = .

P E A- subconjunto de eu. Se A em si constitui um espaço linear sobre o campo P relativamente às mesmas operações que eu, Que A chamado de subespaço do espaço eu.

De acordo com a definição de espaço linear, de modo que A era um subespaço é necessário verificar a viabilidade em A operações:

1) :
;

2)
:
;

e verifique se as operações estão em A estão sujeitos a oito axiomas. No entanto, este último será redundante (devido ao fato de que estes axiomas são válidos em L), ou seja, o seguinte é verdade

Teorema. Seja L um espaço linear sobre um campo P e
. Um conjunto A é um subespaço de L se e somente se os seguintes requisitos forem satisfeitos:

Declaração. Se eun espaço linear tridimensional e A seu subespaço, então A também é um espaço linear de dimensão finita e sua dimensão não excede n.

P Exemplo 1. Um subespaço do espaço de vetores de segmento V 2 é o conjunto S de todos os vetores planos, cada um dos quais está em um dos eixos coordenados 0x ou 0y?

Solução: Deixar
,
E
,
. Então
. Portanto S não é um subespaço .

Exemplo 2.É um subespaço linear de um espaço linear V 2 existem muitos vetores de segmento plano S todos os vetores planos cujos inícios e fins estão em uma determinada linha eu esse avião?

Solução.

E vetor deslizante
multiplicar por número real k, então obtemos o vetor
, também pertencente a S. If E são dois vetores de S, então
(de acordo com a regra de adição de vetores em linha reta). Portanto S é um subespaço .

Exemplo 3.É um subespaço linear de um espaço linear V 2 um monte de A todos os vetores planos cujas extremidades estão em uma determinada linha eu, (suponha que a origem de qualquer vetor coincida com a origem das coordenadas)?

R decisão.

No caso em que a linha reta eu o conjunto não passa pela origem A subespaço linear do espaço V 2 não é, porque
.

No caso em que a linha reta eu passa pela origem, conjunto Aé um subespaço linear do espaço V 2 , porque
e ao multiplicar qualquer vetor
para um número real α do campo R Nós temos
. Assim, os requisitos de espaço linear para um conjunto A concluído.

Exemplo 4. Seja dado um sistema de vetores
do espaço linear eu sobre o campo P. Prove que o conjunto de todas as combinações lineares possíveis
com probabilidades
de Pé um subespaço eu(este é um subespaço Aé chamado de subespaço gerado por um sistema de vetores ou casca linear este sistema vetorial, e denotado da seguinte forma:
ou
).

Solução. Na verdade, desde então, para quaisquer elementos x, simA Nós temos:
,
, Onde
,
. Então

Desde então
, É por isso
.

Vamos verificar se a segunda condição do teorema é satisfeita. Se x– qualquer vetor de A E t– qualquer número de P, Que . Porque o
E
,, Que
, , É por isso
. Assim, de acordo com o teorema, o conjunto A– subespaço do espaço linear eu.

Para espaços lineares de dimensão finita, o inverso também é verdadeiro.

Teorema. Qualquer subespaço A espaço linear eu sobre o campo é a extensão linear de algum sistema de vetores.

Ao resolver o problema de encontrar a base e a dimensão de uma casca linear, o seguinte teorema é usado.

Teorema. Base de casca linear
coincide com a base do sistema vetorial. A dimensão da casca linear coincide com a classificação do sistema de vetores.

Exemplo 4. Encontre a base e a dimensão do subespaço
espaço linear R 3 [ x] , Se
,
,
,
.

Solução. Sabe-se que os vetores e suas linhas de coordenadas (colunas) possuem as mesmas propriedades (em relação à dependência linear). Fazendo uma matriz A=
de colunas de coordenadas de vetores
na base
.

Vamos encontrar a classificação da matriz A.

. M 3 =
.
.

Portanto, a classificação R(A)= 3. Portanto, a classificação do sistema de vetores é 3. Isso significa que a dimensão do subespaço S é 3 e sua base consiste em três vetores
(já que no menor básico
as coordenadas apenas desses vetores estão incluídas).

Exemplo 5. Prove que o conjunto H vetores espaciais aritméticos
, cuja primeira e última coordenadas são 0, constitui um subespaço linear. Encontre sua base e dimensão.

Solução. Deixar
.

Então, e. Por isso,
para qualquer . Se
,
, Que . Assim, de acordo com o teorema do subespaço linear, o conjunto Hé um subespaço linear do espaço. Vamos encontrar a base H. Considere os seguintes vetores de H:
,
, . Este sistema de vetores é linearmente independente. Na verdade, deixe estar.

1. Deixe o subespaço eu = eu(A 1 , A 2 , …, e eu) , aquilo é eu– casca linear do sistema A 1 , A 2 , …, e eu; vetores A 1 , A 2 , …, e eu– o sistema de geradores deste subespaço. Então a base eué a base do sistema de vetores A 1 , A 2 , …, e eu, ou seja, a base do sistema de geradores. Dimensão eu igual à classificação do sistema de geradores.

2. Deixe o subespaço eué a soma dos subespaços eu 1 e eu 2. Um sistema de geração de subespaços para uma soma pode ser obtido combinando sistemas de geração de subespaços, após o que a base da soma é encontrada. A dimensão do montante é determinada pela seguinte fórmula:

escurecer(eu 1 + eu 2) = dimL 1 + dimL 2 – escurecer(eueu 2).

3. Deixe a soma dos subespaços eu 1 e eu 2 é reto, ou seja eu = eueu 2. Em que eueu 2 = {Ó) E escurecer(eueu 2) = 0. A base da soma direta é igual à união das bases dos termos. A dimensão de uma soma direta é igual à soma das dimensões dos termos.

4. Vamos dar um exemplo importante de um subespaço e de uma variedade linear.

Considere um sistema homogêneo eu equações lineares com n desconhecido. Muitas soluções M 0 deste sistema é um subconjunto do conjunto Rn e é fechado pela adição de vetores e multiplicação por um número real. Isto significa que há muitos M 0 – subespaço do espaço Rn. A base do subespaço é o conjunto fundamental de soluções de um sistema homogêneo; a dimensão do subespaço é igual ao número de vetores no conjunto fundamental de soluções do sistema.

Um monte de M soluções de sistema comuns eu equações lineares com n incógnitas também é um subconjunto do conjunto Rn e igual à soma do conjunto M 0 e vetor A, Onde Aé alguma solução particular do sistema original, e o conjunto M 0 – conjunto de soluções para um sistema homogêneo de equações lineares que acompanha este sistema (difere do original apenas em termos livres),

M = A + M 0 = {A = eu, eu Î M 0 }.

Isto significa que muitos Mé uma variedade linear de espaço Rn com vetor de mudança A e direção M 0 .

Exemplo 8.6. Encontre a base e a dimensão do subespaço definido por um sistema homogêneo de equações lineares:

Solução. Vamos encontrar uma solução geral para este sistema e seu conjunto fundamental de soluções: Com 1 = (–21, 12, 1, 0, 0), Com 2 = (12, –8, 0, 1, 0), Com 3 = (11, –8, 0, 0, 1).

A base do subespaço é formada por vetores Com 1 , Com 2 , Com 3, sua dimensão é três.

Fim do trabalho -

Este tópico pertence à seção:

Álgebra Linear

Universidade Estadual de Kostroma em homenagem a N. Nekrasov..

Se precisar de material adicional sobre este tema, ou não encontrou o que procurava, recomendamos utilizar a busca em nosso banco de dados de obras:

O que faremos com o material recebido:

Se este material foi útil para você, você pode salvá-lo em sua página nas redes sociais:

Todos os tópicos nesta seção:

BBK 22.174ya73-5
M350 Publicado por decisão do conselho editorial e editorial da KSU em homenagem. N. A. Nekrasova Revisor A. V. Cherednikov

BBK 22.174ya73-5
ã T. N. Matytsina, E. K. Korzhevina 2013 ã KSU em homenagem. N. A. Nekrasova, 2013

União (ou soma)
Definição 1.9. A união dos conjuntos A e B é um conjunto A È B, consistindo daqueles e somente daqueles elementos que pertencem, embora

Intersecção (ou produto)
Definição 1.10. A interseção dos conjuntos A e B é um conjunto A Ç B, que consiste naqueles e somente naqueles elementos pertencentes ao mesmo

Diferença
Definição 1.11. A diferença entre os conjuntos A e B é o conjunto A B, consistindo daqueles e somente daqueles elementos que pertencem ao conjunto A

Produto cartesiano (ou produto direto)
Definição 1.14. Um par ordenado (ou par) (a, b) são dois elementos a, b tomados em uma determinada ordem. Pares (a1

Propriedades de operações definidas
As propriedades das operações de união, interseção e complemento são às vezes chamadas de leis da álgebra de conjuntos. Listamos as principais propriedades das operações em conjuntos. Seja dado um conjunto universal U

Método de indução matemática
O método de indução matemática é usado para provar afirmações em cuja formulação o parâmetro natural n está envolvido. Método de indução matemática - método de prova matemática

Números complexos
O conceito de número é uma das principais conquistas da cultura humana. Primeiro apareceram os números naturais N = (1, 2, 3,…, n, …), depois os inteiros Z = (…, –2, –1, 0, 1, 2, …), Q racional

Interpretação geométrica de números complexos
Sabe-se que números negativos foram introduzidos em conexão com a solução de equações lineares em uma variável. Em tarefas específicas, uma resposta negativa foi interpretada como o valor da quantidade direcional (

Forma trigonométrica de um número complexo
Um vetor pode ser especificado não apenas por coordenadas em um sistema de coordenadas retangulares, mas também por comprimento e

Operações com números complexos na forma trigonométrica
É mais conveniente realizar adição e subtração com números complexos na forma algébrica e multiplicação e divisão na forma trigonométrica. 1. Multiplicações. Sejam dados dois k

Exponenciação
Se z = r(cosj + i×sinj), então zn = rn(cos(nj) + i×sin(nj)), onde n Î

Forma exponencial de um número complexo
Pela análise matemática sabe-se que e = , e é um número irracional. Eile

Conceito de relacionamento
Definição 2.1. Uma relação n-ária (ou n-ária) P nos conjuntos A1, A2,…, An é qualquer subconjunto

Propriedades das relações binárias
Seja uma relação binária P definida em um conjunto não vazio A, ou seja, P Í A2. Definição 2.9.Relação binária P em um conjunto

Relação de equivalência
Definição 2.15. Uma relação binária em um conjunto A é chamada de relação de equivalência se for reflexiva, simétrica e transitiva. Razão equivalente

Funções
Definição 2.20. Uma relação binária ƒ Í A ´ B é chamada de função do conjunto A para o conjunto B se para qualquer x

Conceitos gerais
Definição 3.1. Uma matriz é uma tabela retangular de números contendo m linhas en colunas. Os números m e n são chamados de ordem (ou

Adição de matrizes do mesmo tipo
Somente matrizes do mesmo tipo podem ser adicionadas. Definição 3.12. A soma de duas matrizes A = (aij) e B = (bij), onde i = 1,

Propriedades de adição de matriz
1) comutatividade: "A, B: A + B = B + A; 2) associatividade: "A, B, C: (A + B) + C = A

Multiplicando uma matriz por um número
Definição 3.13. O produto de uma matriz A = (aij) por um número real k é uma matriz C = (сij), para a qual

Propriedades de multiplicar uma matriz por um número
1) " A: 1×A = A; 2) " α, β О R, " A: (αβ)×A = α×(β×A) = β×

Multiplicação da matriz
Vamos definir a multiplicação de duas matrizes; Para isso, é necessário introduzir alguns conceitos adicionais. Definição 3.14. As matrizes A e B são chamadas consistentes

Propriedades da multiplicação de matrizes
1) A multiplicação de matrizes não é comutativa: A×B ≠ B×A. Esta propriedade pode ser demonstrada com exemplos. Exemplo 3.6. A)

Transpondo matrizes
Definição 3.16. A matriz At obtida de uma dada substituindo cada uma de suas linhas por uma coluna com o mesmo número é chamada transposta para a matriz dada A

Determinantes de matrizes de segunda e terceira ordem
Cada matriz quadrada A de ordem n está associada a um número, que é denominado determinante desta matriz. Designação: D, |A|, det A,

Definição 4.6.
1. Para n = 1, a matriz A consiste em um número: |A| = a11. 2. Seja conhecido o determinante de uma matriz de ordem (n – 1). 3. Definir

Propriedades dos determinantes
Para calcular determinantes de ordens maiores que 3, são utilizadas as propriedades dos determinantes e o teorema de Laplace. Teorema 4.1 (Laplace). Determinante de uma matriz quadrada

Cálculo prático de determinantes
Uma maneira de calcular determinantes de ordem acima de três é expandi-los sobre alguma coluna ou linha. Exemplo 4.4. Calcule o determinante D =

O conceito de classificação de matriz
Seja A uma matriz de dimensão m ´ n. Vamos selecionar arbitrariamente k linhas e k colunas nesta matriz, onde 1 ≤ k ≤ min(m, n).

Encontrar a classificação de uma matriz usando o método de limítrofes menores
Um dos métodos para encontrar a classificação de uma matriz é o método de enumeração de menores. Este método é baseado na determinação da classificação da matriz. A essência do método é a seguinte. Se houver pelo menos um elemento ma

Encontrando a classificação de uma matriz usando transformações elementares
Vamos considerar outra maneira de encontrar a classificação de uma matriz. Definição 5.4. As seguintes transformações são chamadas de transformações de matrizes elementares: 1. multiplicar

O conceito de matriz inversa e métodos para encontrá-la
Seja dada uma matriz quadrada A. Definição 5.7. A matriz A–1 é chamada de inversa da matriz A se A×A–1

Algoritmo para encontrar a matriz inversa
Vamos considerar uma das maneiras de encontrar a matriz inversa de uma dada usando adições algébricas. Seja dada uma matriz quadrada A. 1. Encontre o determinante da matriz |A|. UE

Encontrando a matriz inversa usando transformações elementares
Vamos considerar outra maneira de encontrar a matriz inversa usando transformações elementares. Vamos formular os conceitos e teoremas necessários. Definição 5.11. Matriz por nome

Método Cramer
Vamos considerar um sistema de equações lineares em que o número de equações é igual ao número de incógnitas, ou seja, m = n e o sistema tem a forma:

Método de matriz inversa
O método da matriz inversa é aplicável a sistemas de equações lineares em que o número de equações é igual ao número de incógnitas e o determinante da matriz principal não é igual a zero. Forma matricial de notação de sistema

Método Gaussiano
Para descrever este método, que é adequado para resolver sistemas arbitrários de equações lineares, são necessários alguns novos conceitos. Definição 6.7. Equação da forma 0×

Descrição do método Gauss
O método de Gauss - método de eliminação sequencial de incógnitas - consiste no fato de que, com o auxílio de transformações elementares, o sistema original é reduzido a um sistema equivalente de stepwise ou t

Estudo de um sistema de equações lineares
Estudar um sistema de equações lineares significa, sem resolver o sistema, responder à pergunta: o sistema é consistente ou não, e se for consistente, quantas soluções possui? Responda a isso em

Sistemas homogêneos de equações lineares
Definição 6.11 Um sistema de equações lineares é denominado homogêneo se seus termos livres forem iguais a zero. Sistema homogêneo de m equações lineares

Propriedades de soluções para um sistema homogêneo de equações lineares
1. Se o vetor a = (a1, a2,…, an) é uma solução para um sistema homogêneo, então o vetor k×a = (k×a1, k&t

Conjunto fundamental de soluções para um sistema homogêneo de equações lineares
Seja M0 o conjunto de soluções do sistema homogêneo (4) de equações lineares. Definição 6.12. Vetores c1, c2, ..., c

Dependência linear e independência de um sistema de vetores
Seja a1, a2,…, am um conjunto de m vetores n-dimensionais, que geralmente é chamado de sistema de vetores, e k1

Propriedades de dependência linear de um sistema de vetores
1) O sistema de vetores contendo o vetor zero é linearmente dependente. 2) Um sistema de vetores é linearmente dependente se algum de seus subsistemas for linearmente dependente. Consequência. Se sim

Sistema de vetores unitários
Definição 7.13. Um sistema de vetores unitários no espaço Rn é um sistema de vetores e1, e2,…, en

Dois teoremas sobre dependência linear
Teorema 7.1. Se um sistema maior de vetores for expresso linearmente por meio de um menor, então o sistema maior será linearmente dependente. Vamos formular este teorema com mais detalhes: seja a1

Base e classificação do sistema vetorial
Seja S um sistema de vetores no espaço Rn; pode ser finito ou infinito. S" é um subsistema do sistema S, S" Ì S. Vamos dar dois

Classificação do sistema vetorial
Daremos duas definições equivalentes da classificação de um sistema de vetores. Definição 7.16. A classificação de um sistema de vetores é o número de vetores em qualquer base deste sistema.

Determinação prática da classificação e base de um sistema de vetores
A partir deste sistema de vetores compomos uma matriz, organizando os vetores como linhas desta matriz. Reduzimos a matriz à forma escalonada usando transformações elementares nas linhas desta matriz. No

Definição de um espaço vetorial sobre um corpo arbitrário
Seja P um campo arbitrário. Exemplos de campos que conhecemos são o campo dos números racionais, reais e complexos. Definição 8.1. O conjunto V é chamado

As propriedades mais simples de espaços vetoriais
1) o – vetor zero (elemento), definido exclusivamente em um espaço vetorial arbitrário sobre o campo. 2) Para qualquer vetor a О V existe um único

Subespaços. Variedades lineares
Seja V um espaço vetorial, L М V (L é um subconjunto de V). Definição 8.2. Subconjunto L do vetor pro

Interseção e soma de subespaços
Seja V um espaço vetorial sobre o campo P, L1 e L2 seus subespaços. Definição 8.3. Cruzando a subquest

Variedades lineares
Seja V um espaço vetorial, L um subespaço, a um vetor arbitrário do espaço V. Definição 8.6. Variedade linear

Espaços vetoriais de dimensão finita
Definição 8.7. Um espaço vetorial V é chamado n-dimensional se contém um sistema linearmente independente de vetores consistindo em n vetores, e para

Base de um espaço vetorial de dimensão finita
V é um espaço vetorial de dimensão finita sobre o campo P, S é um sistema de vetores (finito ou infinito). Definição 8.10. A base do sistema S

Coordenadas vetoriais relativas a uma determinada base
Considere um espaço vetorial de dimensão finita V de dimensão n, os vetores e1, e2,…, en formam sua base. Seja a um produto

Coordenadas vetoriais em várias bases
Seja V um espaço vetorial n-dimensional no qual duas bases são dadas: e1, e2, …, en – base antiga, e"1, e

Espaços vetoriais euclidianos
Dado um espaço vetorial V sobre o corpo dos números reais. Este espaço pode ser um espaço vetorial de dimensão finita de dimensão n ou um espaço vetorial de dimensão infinita

Produto escalar em coordenadas
No espaço vetorial euclidiano V de dimensão n, a base e1, e2,…, en é dada. Os vetores x e y são decompostos em vetores

Conceitos métricos
Nos espaços vetoriais euclidianos, do produto escalar introduzido podemos passar aos conceitos de norma vetorial e ângulo entre vetores. Definição 8.16. Norma (

Propriedades da norma
1) ||uma|| = 0 Û a = o. 2) ||la|| = |l|×||a||, porque ||la|| =

Base ortonormal do espaço vetorial euclidiano
Definição 8.21. Uma base de um espaço vetorial euclidiano é chamada ortogonal se os vetores da base forem ortogonais aos pares, ou seja, se a1, a

Processo de ortogonalização
Teorema 8.12. Em todo espaço euclidiano n-dimensional existe uma base ortonormal. Prova. Seja a1, a2

Produto escalar em base ortonormal
Dada uma base ortonormal e1, e2,…, en do espaço euclidiano V. Visto que (ei, ej) = 0 para i

Complemento ortogonal do subespaço
V é um espaço vetorial euclidiano, L é seu subespaço. Definição 8.23. Um vetor a é dito ortogonal ao subespaço L se o vetor

Relação entre as coordenadas de um vetor e as coordenadas de sua imagem
Um operador linear j é dado no espaço V, e sua matriz M(j) é encontrada em alguma base e1, e2,…, en. Deixe esta ser a base

Matrizes semelhantes
Consideremos o conjunto Рn´n de matrizes quadradas de ordem n com elementos de um corpo arbitrário P. Neste conjunto introduzimos a relação

Propriedades das relações de similaridade de matrizes
1. Reflexividade. Qualquer matriz é semelhante a si mesma, ou seja, A ~ A. 2. Simetria. Se a matriz A é semelhante a B, então B é semelhante a A, ou seja,

Propriedades dos autovetores
1. Cada autovetor pertence a apenas um autovalor. Prova. Seja x um autovetor com dois autovalores

Polinômio característico de uma matriz
Dada uma matriz A О Рn´n (ou A О Rn´n). Definir

Condições sob as quais uma matriz é semelhante a uma matriz diagonal
Seja A uma matriz quadrada. Podemos assumir que esta é uma matriz de algum operador linear definido em alguma base. Sabe-se que em outra base a matriz do operador linear

Forma normal de Jordan
Definição 10.5. Uma célula de Jordan de ordem k relacionada ao número l0 é uma matriz de ordem k, 1 ≤ k ≤ n,

Reduzindo uma matriz à forma Jordan (normal)
Teorema 10.3. A forma normal de Jordan é determinada exclusivamente para uma matriz até a ordem de disposição das células de Jordan na diagonal principal. Etc.

Formas bilineares
Definição 11.1. Uma forma bilinear é uma função (mapeamento) f: V ´ V ® R (ou C), onde V é um vetor arbitrário

Propriedades de formas bilineares
Qualquer forma bilinear pode ser representada como uma soma de formas simétricas e simétricas. Com a base selecionada e1, e2,…, en no vetor

Transformação de uma matriz de forma bilinear ao passar para uma nova base. Classificação da forma bilinear
Sejam duas bases e = (e1, e2,…, en) e f = (f1, f2,

Formas quadráticas
Seja A(x, y) uma forma bilinear simétrica definida no espaço vetorial V. Definição 11.6.Forma quadrática

Reduzindo uma forma quadrática à forma canônica
Dada a forma quadrática (2) A(x, x) = , onde x = (x1

Lei da inércia das formas quadráticas
Foi estabelecido que o número de coeficientes canônicos diferentes de zero de uma forma quadrática é igual ao seu posto e não depende da escolha de uma transformação não degenerada com a ajuda da qual a forma UMA(x

Condição necessária e suficiente para o sinal de uma forma quadrática
Declaração 11.1. Para que a forma quadrática A(x, x), definida no espaço vetorial n-dimensional V, seja de sinal definido, é necessário

Condição necessária e suficiente para forma quadrática quase alternada
Declaração 11.3. Para que a forma quadrática A(x, x), definida no espaço vetorial n-dimensional V, seja quase alternada de sinal (ou seja,

Critério de Sylvester para o sinal definido de uma forma quadrática
Deixe a forma A(x, x) na base e = (e1, e2,…, en) ser determinada pela matriz A(e) = (aij)

Conclusão
A álgebra linear é uma parte obrigatória de qualquer programa superior de matemática. Qualquer outra seção pressupõe a presença de conhecimentos, competências e habilidades desenvolvidas durante o ensino desta disciplina

Bibliografia
Burmistrova E.B., Lobanov S.G. Álgebra linear com elementos de geometria analítica. – M.: Editora HSE, 2007. Beklemishev D.V. Curso de geometria analítica e álgebra linear.

Álgebra Linear
Manual educacional e metodológico Editor e revisor G. D. Neganova Digitação computacional por T. N. Matytsina, E. K. Korzhevina