Há alguns anos atrás a análise de requisitos era um tanto renegada no mercado de desenvolvimento de software, onde alguns profissionais diziam que encareciam muito um projeto e não geravam valor. Mas nos últimos anos essa realidade tem mudado. Os números demonstram que projetos com análise e especificação de requisitos agregam valor para o desenvolvimento e para o negócio e o seu valor é justificado.
Mas é claro, é melhor não ter nenhuma documentação escrita do que ter uma especificação que não faça sentido para o projeto. Então, para lhe ajudar a entregar valor com sua documentação eu reuni cinco dicas para lhe auxiliar nessa tarefa. Mas como não existe “Bala de Prata” na engenharia de requisitos, você deve seguir aquelas que fazem sentido para a sua realidade e negócio.
Não pode ler agora? Ouça esse conteúdo durante suas atividades:
É muito comum ouvirmos falar sobre metodologia ágil em TI nos dias de hoje. Realmente é bem raro encontrar alguém envolvido com desenvolvimento de software que nunca tenha ao menos ouvido falar em termos como XP, Scrum, Histórias de Usuário, Pair programmig e etc.
O conceito de agilidade surgiu por volta dos anos 2000 com a criação do Manifesto Ágil, que possui entre seus doze princípios os objetivos de satisfazer o cliente através da entrega contínua e adiantada de valor agregado ao cliente, além de aceitar mudanças de requisitos, mesmo no fim do desenvolvimento.
Este artigo visa comparar de maneira geral o papel dos requisitos no Modelo Cascata, utilizado antigamente, com os Modelos Ágeis tão amplamente difundido nos dias atuais. Vamos lá?
O Mestre dos Códigos é um sistema de incentivo à capacitação de nossos mais de 120 desenvolvedores aqui na DB1 Global Software, baseado em práticas de gamificação. A inspiração veio de escoteiros, que usam distintivos de acordo com as especialidades…
Quando iniciei os meus estudos sobre Testes de Performance, logo conheci o JMeter. Essa ferramenta, desenvolvida pela Apache, traz um conjunto de soluções para avaliar fatores como desempenho, disponibilidade e escalabilidade das aplicações. Era o que precisávamos em um dos projetos da DB1.
Para que este artigo não fique tão extenso, decidi agrupar as principais características do JMeter de acordo com a experiência que tive com a ferramenta.
Neste post, vamos demonstrar um exemplo de utilização de métodos simples de inteligência artificial para aplicações práticas utilizando R direto da ferramenta Power BI.
Para seguir com o tutorial é necessário que seja instalado o Power BI e do R for Windows.
Uma dificuldade comum para os desenvolvedores é fazer estimativas assertivas. Imagine a vantagem de ter de forma automática para obter macro estimativas de desenvolvimento com base no histórico? Isso pode facilitar o gerenciamento de projetos em geral, pois daria uma ideia do tamanho da demanda antes dos desenvolvedores desempenharem tempo nas estimativas. Bom, vamos tentar algo semelhante utilizando regressão linear.
Desde que começamos a trilhar o caminho até a resiliência, falamos sobre as habilidades necessárias para aprendermos a lidar melhor com os desafios da vida: atenção positiva, identificação e expressão dos sentimentos, práticas de relaxamento, gratidão… Hoje o nosso texto será sobre comunicação assertiva.
O que é Comunicação Assertiva?
Comunicação é uma habilidade que exige que o emissor e o receptor da mensagem tenham real e total compreensão dela. Por isso, a comunicação deve ser clara e objetiva. O termo assertividade envolve a afirmação dos próprios direitos e expressão de pensamentos, sentimentos e crenças de maneira direta, honesta e apropriada que não viole o direito das outras pessoas.
Hoje em dia técnicas de machine learning são utilizadas para resolver problemas em praticamente todo domínio imaginável. Um uso muito popular é no reconhecimento e classificação de imagens, onde técnicas de deep learning podem apresentar ótimos resultados.
Para entender conceitos como redes neurais, deep learning e classificação de imagens, preparei um exemplo onde ensinaremos um algoritmo a separar fotos de gatos de acordo com suas raças.
Relembrando a teoria discutida no artigo anterior (O que é Machine Learning?), nosso algoritmo será de classificação (classificar uma entrada entre determinadas categorias), com aprendizagem supervisionada (treinamento com entradas que possuem um label associado, ou seja, dizemos ao computador o que significa aquela entrada).
Mas antes de implementar o algoritmo, primeiro vamos entender algumas definições:
Rede Neural Artifical
Uma rede neural artifical (ANN) é uma estrutura que simula o funcionamento de um conjunto de neurônios. A ANN mais simples é aquela composta de apenas um neurônio, chamada perceptron. Um perceptron possui:
diversas entradas com seus respectivos pesos
um valor limite, utilizado para decidir se o perceptron “dispara”, ou seja, se sua saída será igual a 1
Ao juntar muitos perceptrons, formamos uma rede, uma rede neural artificial.
Para treinar um perceptron, comparamos o resultado obtido com o resultado esperado, e mudamos os pesos das entradas com o objetivo de minimizar o erro obtido.
Por exemplo: imagine que vamos treinar uma rede neural para classificar se um e-mail é ou não spam. As entradas podem ser:
O tamanho do e-mail
O horário em que foi enviado
Se conheço ou não quem o enviou
Se já recebi outros e-mails do mesmo remetente
As palavras no assunto e no corpo do e-mail
E a saída é 0 (não spam) ou 1 (spam). Conforme a rede é treinada (usa a diferença entre o resultado obtido e o resultado esperado para alterar os pesos que agem sobre as entradas, afim de minimizar o erro), ela aprende as características e a relevância de cada característica para indicar se um e-mail é ou não spam.
Ou seja, treinamos a estrutura para gerar o resultado correto por meio do ajuste dos pesos que agem sobre as entradas. Este ajuste é feito ao comparar o resultado obtido com o resultado esperado, e calcular a diferença. O ajuste tem o objetivo de diminuir esta diferença. Quanto menor a diferença, mais o algoritmo aprendeu a classificar corretamente.
Rede Neural Convolucional
Rede Neural Convolucional (Convolutional Neural Network – CNN) é uma classe de rede neural utilizada para processamento e análise de imagens. Foi proposta em 1998 em um paper do cientista Yann LeCun, que propôs uma arquitetura capaz de reconhecer dígitos manuscritos com precisão de 99,2%. Esta arquitetura foi inspirada em uma pesquisa de 1968 feita por David Hunter Hubel e Torsten Wiesel sobre o funcionamento do córtex visual dos mamíferos.
A pesquisa sugere que mamíferos percebem visualmente o mundo de forma hierárquica, através de camadas de clusters de neurônios. Quando vemos algo, clusters são ativados hierarquicamente, e cada um detecta um conjunto de atributos sobre o que foi visto.
A arquitetura da CNN simula clusters de neurônios para detectar atributos daquilo que foi visto, organizados hierarquicamente e de forma abstrata o suficiente para generalizar independentemente de tamanho, posição rotação, etc.
Acima explicamos o conceito de rede neural. Deep Learning é o uso de uma rede neural com muitas camadas. Usando a mesma lógica, mas com mais níveis, podemos utilizá-la para modelar conceitos mais complexos.
Convolucional
Já entendemos o que é uma rede neural, e que rede neural convolucional é uma classe de redes neurais. Mas qual o significado de convolução? Para nós neste exemplo, convolução pode ser visto como sinônimo de combinação. É o procedimento de combinar duas fontes de informação.
Imagem
O input da CNN é uma imagem, representada como uma matriz. Cada elemento da matriz contém o valor de seu respectivo pixel, que pode variar de 0 a 255. Para imagens coloridas em RGB temos uma matriz “em três dimensões”, onde cada dimensão é uma das camadas de cor (red, green e blue). Assim, uma imagem colorida de 255px por 255px é representada por três matrizes de 255 por 255 (255x255x3).
Atributo
Um atributo é um padrão que a CNN aprende. Normalmente este padrão se repete nas imagens, tornando-o proeminente. O contorno dos objetos (linhas, formas, abstrações) é um exemplo de atributo.
Aplicando a convolução
Um pouco acima explicamos que convolução é a combinação de duas fontes de informação. E que estamos tentando aprender e identificar padrões nas imagens. Neste exemplo, queremos aprender os padrões que diferenciam duas raças diferentes de gatos, quais características diferenciam uma raça da outra. E como treinar nosso algoritmo para identificar estas características.
Pois bem, para isto utilizamos um kernel/filtro que será aplicado à partes da imagem original, com o objetivo de identificar padrões.
Pense nela como uma matriz menor composta de valores. Ela é aplicada à imagem (convolução), para obter regiões de ativação, ou seja, regiões onde atributos específicos deste filtro foram encontrados.
Por exemplo, podemos imaginar um filtro de 16 x 16 percorrendo uma imagem de 256 x 256 x 3. A cada etapa pegamos uma porção de 16 x 16 da imagem e fazemos a convolução (ou seja, calculamos o produto escalar entre as duas matrizes). O valor obtido é adicionado à matriz de ativação. Este processo é repetido até todas as três matrizes terem sido percorridas completamente.
Os valores do filtro mudam a cada iteração de treinamento, com o objetivo de melhorar a identificação de quais regiões contém atributos significativos (da mesma forma que os pesos em um perceptron de uma rede neural são atualizados no treinamento).
Mas como essa série de multiplicações nos ajuda a detectar os atributos de uma imagem? Conforme o filtro aprende a detectar um atributo (através do processo de aprendizado), seus valores se ajustam de forma que o resultado da convolução seja um valor que indique que o determinado atributo foi encontrado. É o mesmo mecanismo utilizado na detecção de spam/não spam explicada anteriormente, só que agora sendo aplicado a uma imagem.
No exemplo abaixo, estamos tentando identificar o ratinho na imagem. O filtro irá trabalhar na detecção daquela curva destacada em amarelo. A representação em pixels do contorno do ratinho contém valores da cor onde ocorre o contorno, e zero (branco) onde não ocorre.
Quando fazemos o produto escalar entre o filtro e o contorno que procuramos, o resultado é um número bem grande.
Este resultado sempre é menor em outras partes da imagem, pois o produto escalar é menor.
Ou seja, quando o resultado da convolução é um número grande, o atributo foi detectado. Já quando é um resultado 0 ou muito pequeno, o atributo não foi encontrado.
Treinando nossa CNN
Neste exemplo não iremos escrever uma CNN do zero, mas sim treinar uma pronta utilizando um processo chamado Transfer Learning. Com Transfer Learning, usamos uma CNN já treinada, e adicionamos uma camada a mais, treinando apenas esta camada para nosso objetivo.
No nosso caso, usaremos a CNN Inception-V3 do Google, que foi treinada em cima da base de dados ImageNet, e a ensinaremos a classificar a raça de gatos.
Crie uma pasta em algum lugar do seu computador, abra uma linha de comando nela e siga os passos abaixo.
Passo 1
Baixar e instalar o Docker. Uma vez instalado, podemos executar o seguinte comando para conferir se está tudo ok:
docker run hello-world
Passo 2
Baixar a imagem do TensorFlow:
docker pull tensorflow/tensorflow
Passo 3
Iniciar o container baseado na imagem do TensorFlow, mapeando um diretório entre a máquina física e o container:
--volume <host>:<container>: monta um volume, linkando uma pasta no host com uma no container
--workdir <dir>: diretório no container onde vamos executar os comandos
--publish <host>:<container>: mapeamento entre porta do host e a porta no container
Passo 4
Colocar neste diretório os arquivos necessários para treinar a CNN (veja as observações abaixo para pegar os arquivos):
Uma pasta chamada cats, contendo uma pasta para cada categoria que queremos treinar. No nosso caso teremos uma pasta para cada raça de gato. O nome da pasta será o nome da categoria, o nome da raça do gato. Dentro das pastas, teremos as imagens dos gatos.
Script retrain.py que contém os comandos para treinar a CNN.
Script label_image.py que usaremos para consultar a CNN treinada, ou seja, passaremos a imagem de um gato e perguntaremos qual sua raça.
Obs 1: Você deve montar ou utilizar um conjunto de dados com as imagens das raças desejadas. Eu utilizei um subconjunto do desafio Dogs vs. Cats do Kaggle.
Para este exemplo, separei mais ou menos 200 imagens de cada raça. Vamos trabalhar com a Birman e a British Shorthair:
Fonte: https://www.kaggle.com/c/dogs-vs-cats
Obs 2: Para baixar os scripts, execute os seguintes comandos:
Este script irá baixar o inception model e depois iniciará o treinamento com base nas imagens e categorias que informamos. Irá iterar 500 vezes para treinar o modelo, e salvará o resultado no arquivo retrained_graph.pb.
O tempo de execução varia de acordo com a quantidade de imagens para treinar e a velocidade do computador. Em um teste que fiz com 12 raças, cada uma contendo em torno de 200 imagens, o treinamento demorou mais ou menos 30 minutos em um i5 com 8 GB de RAM.
Treinamento finalizado:
Passo 6
Consultar o modelo gerado. Podemos pesquisar no Google a imagem de um gato qualquer (dentre as duas raças que escolhemos), e colocar na pasta tf_files. Para perguntar ao modelo treinado qual a raça deste gato, basta executar:
python label_image.py gato.jpg
Onde gato.jpg é o nome da imagem que você pesquisou e baixou.
Fiz um teste com o gato da imagem abaixo, e o resultado foi 99,29% British Shorthair, ou seja, o resultado correto!
Podemos pegar o modelo que treinamos e criar uma aplicação para disponibilizar uma API que recebe a imagem de um gato e retorna sua raça fazendo consulta a este modelo. Ou podemos também criar uma aplicativo para celular, onde tiramos a foto de um gato e consultamos o modelo para saber a sua raça.
Estes são alguns exemplos de como utilizar isto no mundo real, e lembre-se que podemos utilizar este modelo também para outros tipos de imagens e classificações.
Fontes e créditos
Este tutorial não seria possível sem o estudo das seguintes referências:
Com temperaturas na casa dos 16 graus em Maringá, no Paraná, nada melhor (e necessário) que ajudar a quem precisa. Por meio da campanha do agasalho com o tema da Copa, que teve início em 15 de março, meses antes do frio chegar, a DB1 Global Software, multinacional de tecnologia sediada em Maringá, bateu todos os recordes de arrecadação por meio de uma disputa saudável entre times formados por colaboradores da empresa.
A “Copa dos Agasalhos” reuniu muito da missão da DB1: desenvolver as melhores soluções em TI, criar e evoluir as práticas de gestão da organização no aspecto socioambiental, envolvendo e engajando os colaboradores, incentivando a competitividade e, claro, atendendo a sociedade organizada em parte de suas necessidades.
O texto de hoje fala sobre gratidão! Se você leu o texto anterior deve estar pensando: “de novo”? Sim, de novo! Contudo, se você já leu sobre gratidão, você sabe também sobre a importância de ser grato para a construção da resiliência. Por isso, esse texto apresentará novas maneiras de vivenciar a gratidão. Bora treinar?
Primeiro, respire fundo, se acalme e vamos lembrar o que é gratidão. Gratidão, segundo o dicionário, é o sentimento experimentado por uma pessoa em relação a alguém que lhe concedeu algum favor, um auxílio ou benefício qualquer, ou seja, é uma espécie positiva de reconhecimento. Na vida, a gratidão é um pouco mais que isso: é a emoção responsável por sermos capazes de expressar apreço por aquilo que temos, e não pelo que desejamos ter. Na psicologia positiva, a gratidão também é conhecida como uma emoção que pode ser cultivada e as consequências desse cultivo são, além de maior bem-estar e felicidade, também mais energia, otimismo e empatia, quando a direcionamos para quem nos cerca. Vamos cultivá-la?
Existem alguns MITOS referentes à escolha da área de Teste de Software como carreira, tais como:
Qualquer pessoa pode testar;
A área de Desenvolvimento é melhor que a área de Teste;
Os salários dos Testadores serão menores do que os dos Desenvolvedores;
Somente as pessoas que não gostam ou não sabem programar escolhem a carreira de Testes;
Não haverá crescimento profissional nessa área.
Eis as DESMISTIFICAÇÕES para os itens acima:
Nem todos podem testar. É necessário ter paciência, uma boa capacidade analítica e de comunicação para reportar incidente, para então se tornar um testador de software, além de ser observador, curioso, atento aos detalhes, criativo, etc;
O salário de Testador pode ser menor quando inicia-se nessa carreira. Porém, testadores experientes estão ganhando o mesmo nível em comparação com os Desenvolvedores, principalmente os Testadores especializados em Automação;
Não somente pessoas que não gostam ou não sabem programar escolhem a carreira de Testes. Existem automatizadores e esses escrevem código para automatizar os scripts de testes;
Há crescimento profissional na área de testes. Um Testador pode se tornar Líder de Teste, Líder de Projeto, Arquiteto de Automação, Gerente de Teste, etc, ou seja, assim como em outras áreas, nessa também pode-se crescer profissionalmente e chegar ao nível de gestão.