terça-feira, 31 de julho de 2012

ORACLE-BASE - Case Sensitive Passwords in Oracle Database 11g Release 1

Segue a dica, o Oracle 11 é CASE SENSITIVE.

ORACLE-BASE - Case Sensitive Passwords in Oracle Database 11g Release 1

segunda-feira, 30 de julho de 2012

Instruções SET (Transact-SQL) – para Datas

SET DATEFIRST

Define o primeiro dia da semana como um número de 1 a 7.
Sintaxe
SET DATEFIRST { number | @number_var } 

É um inteiro que indica o primeiro dia da semana. Pode ser um dos seguintes valores. 
 

ValorO primeiro dia da semana é
1Segunda-feira
2Terça-feira
3Quarta-feira
4Quinta-feira
5Sexta-feira
6Sábado
7 (padrão, EUA Inglês)Domingo

Para visualizar a configuração atual de SET DATEFIRST, use a função @@DATEFIRST.

A configuração de SET DATEFIRST é definida no momento da execução e não no momento da análise.
Exemplos:
-- SET DATEFIRST to U.S. English default value of 7.
SET DATEFIRST 7;
SELECT CAST('1999-1-1' AS datetime2) AS SelectDate,DATEPART(dw, '1999-1-1') AS DayOfWeek;
SET DATEFIRST 3;
SELECT CAST('1999-1-1' AS datetime2) AS SelectDate ,DATEPART(dw, '1999-1-1') AS DayOfWeek;
GO



SET DATEFORMAT


Define a ordem das partes do mês, dia e ano para interpretar date, smalldatetime, datetime, datetime2 e cadeias de caracteres datetimeoffset.
Sintaxe
SET DATEFORMAT { format | @format_var } 

É a ordem das partes de data. Parâmetros válidos são mdy, dmy, ymd, ydm, myde dym. Este argumento ou pode ser Unicode ou conjuntos de caracteres de dois bytes (DBCS) convertidos para Unicode. O padrão do inglês dos EUA é mdy.

Exemplos:
-- Set date format to day/month/year.
SET DATEFORMAT dmy;
GO
DECLARE @datevar datetime2 = '31/12/2008 09:01:01.1234567';
SELECT @datevar;
GO
-- Result: 2008-12-31 09:01:01.123
SET DATEFORMAT dmy;
GO
DECLARE @datevar datetime2 = '12/31/2008 09:01:01.1234567';
SELECT @datevar;
GO
-- Result: Msg 241: Conversion failed when converting date and/or time -- from character string.

GO

Fonte: http://msdn.microsoft.com/pt-br/library/ms190356.aspx

quinta-feira, 26 de julho de 2012

Recomendação de Indíce por número de valores exclusivos – Sybase IQ

No Sybase IQ, os índices são otimizados de acordo com o número de valores destintos que se interagem. Quando este número chega a certos níveis, a escolha do índices deve ser realizada de acordo com as recomendações contidas a seguir:

Número de valores exclusivos

Tipo índice recomendado

Abaixo de 1.000

LF (HG Se a tabela tem <25.000 linhas)

1000 ou mais

HG e/ou HNG

Aqui estão alguns exemplos de colunas com diferentes números de valores exclusivos:

  • Colunas que armazenam o estado civil tem apenas alguns valores exclusivos (solteiro, casado, NULL)
  • Colunas que armazenam nomes de estado ou Cidade tem menos de 100 valores exclusivos
  • Colunas que armazenam dados de data, provavelmente, tem mais de 100 mas menos de 65536 valores exclusivo
  • Colunas que armazenam números de conta e números de segurança social podem ter milhares ou milhões de números únicos

[]s

segunda-feira, 23 de julho de 2012

Oracle apresenta o Oracle Enterprise Manager 12c

Solução ampliada de gestão de TI voltada aos negócios com recursos exclusivos de cloud computing

A Oracle anunciou o Oracle Enterprise Manager 12c, a primeira solução do setor a combinar gestão da pilha completa da Oracle com gerenciamento de todo o ciclo de vida de nuvem empresarial.

Agora as organizações de TI podem aumentar a eficiência ao mesmo tempo que reduzem os custos e a complexidade dos datacenters tradicionais, de ambientes virtualizados e de cloud computing.

Com o Oracle Enterprise Manager Cloud Control, o novo console centralizado, o Oracle Enterprise Manager 12c reúne recursos de gestão exclusivos para todo o ciclo de vida da nuvem. As principais novidades incluem planejamento de capacidade e consolidação, auto-atendimento, testes, monitoramento, medição e chargeback (estorno).

Os novos recursos de gestão integrados – dos aplicativos ao disco rígido – do Oracle Fusion Applications e dos sistemas projetados da Oracle foram adicionados. Essa versão apresenta também novas capacidades de gerenciamento de recursos de cloud computing e virtualização com base no Oracle VM 3.0.

Inclui também novos recursos aprimorados de parceiros, disponíveis por intermédio do programa Oracle PartnerNetwork, e de gerenciamento de componentes de outros fornecedores.

O Oracle Enterprise Manager 12c é o primeiro produto do portfóio da Oracle com o número "12c" – a letra "c" indica investimentos expressivos da Oracle para oferecer produtos prontos para nuvem.

Gestão de cloud computing completa e unificada por meio de um único console

O Oracle Enterprise Manager Cloud Control é o único console de gestão de cloud computing para tecnologia Oracle que permite aos stakeholders criar serviços empresariais avançados, compostos por uma combinação de IaaS (infraestrutura como serviço), PaaS (plataforma como serviço) – incluindo DBaaS (banco de dados como serviço) e MWaaS (middleware como serviço) – e SaaS (software como serviço).

O Oracle Enterprise Manager Cloud Control fornece recursos orientados por assistentes e baseados em funções para todos os stakeholders envolvidos no planejamento, gestão e consumo de cloud computing empresarial.

Os principais recursos incluem:

  • Ferramentas de planejamento na nuvem, que permitem aos arquitetos e administradores da nuvem modelar o ambiente de cloud computing para maximizar a utilização dos recursos. Um recurso importante – o planejador de consolidação e capacidades – facilita a ambientação na nuvem por meio de recomendações e workflows automatizados.
  • Configuração automática de recursos do sistema e pools compartilhados, que possibilitam aos administradores da nuvem reunir recursos de TI e definir regras, privilégios e políticas que regem como os recursos são consumidos, além de ajudar a garantir a facilidade na gestão e a qualidade do serviço.
  • Auto-atendimento incorporado, com acesso transparente aos recursos de cloud computing para os usuários de linhas de negócios e desenvolvedores de aplicativos. Os consumidores podem usar o portal de autoatendimento para solicitar serviços de um catálogo central, gerenciar e monitorar os serviços solicitados, assim como receber informações de chargeback.
  • Chargeback e indicadores completos, para que os funcionários de finanças, gerentes de TI e prestadores de serviços façam medições do uso e cobrem pelos serviços. Vários mecanismos de chargeback disponíveis. Integrações embutidas com o Oracle Communications Billing and Revenue Management oferecem vastos recursos de faturamento.
  • Capacidades exclusivas de cloud computing agregam vantagens inéditas no setor por intermédio de integrações com dois importantes produtos Oracle:
    • Oracle VM 3.0, que permite aos administradores planejar e provisionar automaticamente ambientes de cloud computing, incorporando VMs, zonas e pools de recursos.
    • Oracle Virtual Assembly Builder: ajuda os desenvolvedores a modelar e empacotar aplicativos complexos, multicamadas, para consumo em auto-atendimento.
  • Diferentemente das soluções da concorrência o Oracle Enterprise Manager 12c garante a gestão da nuvem em ambientes físicos e virtuais para arquiteturas x86 e4 SPARC.
Projetado para Oracle

O Oracle Enterprise Manager 12c continua a oferecer incomparáveis recursos de automação para tecnologias Oracle. Os destaques incluem:

  • Gestão completa do Oracle Fusion Applications, que fornece recursos inigualáveis para ajudar a garantir a integridade e a disponibilidade desses aplicativos.
  • Disponibilidade imediata para suporte do programa Applications Unlimited da Oracle. Agora as suites de gestão Oracle JD Edwards EnterpriseOne e Oracle Siebel CRM estão certificadas. Há certificações de outros aplicativos planejadas para 2012.
  • Gestão aprimorada do Oracle Fusion Middleware com novos recursos de autogerenciamento, como análise automática de causa principal e recomendações pró-ativas. Desse modo, os administradores de aplicativos e TI gerenciam mais programas com facilidade.
  • Autogerenciamento de banco de dados avançado, que permite aos DBAs gerenciar bancos de dados de grande porte com recursos que incluem monitor automático de diagnósticos periódicos e em tempo real do banco de dados, assim como análises de ASH (Active Session History).
  • Soluções aprimoradas de gestão de qualidade com novos recursos Application Replay, que viabilizam testes de cargas de trabalho reais dos aplicativos, proporcionando resultados mais realistas. A nova capacidade de descoberta, modelagem e subdivisão de dados racionaliza a gestão dos dados dos testes. Juntos, esses recursos contribuem para aprimorar a qualidade dos aplicativos com menos esforço.
  • Integração coesa com os sistemas projetados da Oracle, que possibilitam visualizações integradas de hardware e software para o Oracle Exadata Database Machine e o Oracle Exalogic Elastic Cloud, que facilitam a gestão e proporcionam desempenho e disponibilidade superiores.

Fonte:http://www.oracle.com/br/corporate/press/pr-br-06-dec-2011-1396300-ptb.html

[]s

sexta-feira, 20 de julho de 2012

TRUNCATE Table x DELETE Table

Fazendo uma comparação entre a instrução DELETE e TRUNCATE temos as seguintes vantagens:

  • Menos espaço transaction log usado. A instrução DELETE remove as linhas uma de cada vez e registra uma entrada no transaction log para cada linha excluída. TRUNCATE TABLE remove os dados desalocando as páginas de dados usadas para armazenar os dados da tabela e registra somente os desalocações página no transaction log.
  • Menos bloqueios. Quando a instrução DELETE é executado cada linha que esta contemplada na instrução de delete da tabela está bloqueada até o final para exclusão. TRUNCATE TABLE sempre bloqueia a tabela e página, mas não cada linha.
  • Sem excepção, páginas zeradas são deixadas na tabela. Depois de uma instrução DELETE é executado, a tabela ainda pode conter páginas vazias. Se a operação de exclusão não usar um bloqueio de tabela, a tabela (heap) conterá muitas páginas vazias. Para os índices, a operação de exclusão pode deixar páginas vazias tbm, embora essas páginas serão desalocada rapidamente por um processo de limpeza em segundo plano.


TRUNCATE TABLE remove todas as linhas de uma tabela, mas a estrutura da tabela e suas colunas, restrições, índices, e assim por diante permanecem. Para remover a definição da tabela, além de seus dados, use o comando DROP TABLE.


Se a tabela contiver uma coluna de identity, o contador para essa coluna é redefinido para o valor default informação na criação do identity. Se não tiver sido definido um valor default de inicio, o valor padrão 1 é usado. Para reter o contador de Identity, utilize DELETE.

Restrições:

Você não pode usar TRUNCATE TABLE em tabelas que:

  • Possuem uma FOREIGN KEY. (Você pode truncar uma tabela que tem uma chave estrangeira que faz referência em si.)
  • Participe de uma indexed view.
  • Uso de replicação transacional ou merge replication.

Para tabelas com uma ou mais dessas características, use a instrução DELETE .
TRUNCATE TABLE não pode ativar uma trigger porque a operação não registra exclusões de linha individuais.

[]s

quinta-feira, 19 de julho de 2012

Data Mining - Processo de descoberto do conhecimento - KDD

 

O número de dados armazenadas nas empresas vem aumentando a cada dia o que supera as habilidades humanas em analisa-los e interpreta-los, sendo necessário à utilização de ferramentas e técnicas para automatizar e analisar a massa de dados de forma rápida e inteligente (FAYYAD, 1996).

Essas técnicas e ferramentas que buscam transformar esses dados armazenados em conhecimento, são o objetivo do Knowledge Discovery in Databases - KDD (descoberta de conhecimento em bases de dados).

Segundo FAYYAD (1996), KDD foi criado em 1989 com o intuito de encontrar conhecimento em dados e dar ênfase a uma grande aplicação em particular o método de mineração de dados.

Em resumo segundo (FAYYAD, 1996) o processo de encontrar e interpretar modelos extraídos de uma massa de dados é chamado de KDD envolvendo repetidas aplicações específicas de métodos ou algoritmos Data Mining e a interpretação dos padrões gerados.

O processo de descoberta, ou seja, KDD envolve áreas como estatística, matemática, banco de dados, inteligência artificial, visualização de dados e reconhecimento de padrões todos com um único objetivo de extrair conhecimento a partir de grandes bases de dados.

O processo de KDD é divido em cinco etapas (MANNILA, 1996).:

  • Seleção dos dados - selecionar e coletar o conjunto de dados

  • Pré-processamento e limpeza dos dados – resolver inconsistências dos dados

  • Transformação dos dados – integrar e organizar dados coletados de diferentes fontes

  • Data Mining – Mineração dos dados extraídos

  • Interpretação e Avaliação dos resultados – Processo de descoberta do conhecimento devendo possibilitar o retorno para qualquer uma das fases anteriores caso os resultados não estejam plenamente consistentes.

Principais áreas de conhecimento do KDD:

  • Aprendizado de Máquina – utilização de estratégias de aprendizado de máquina e modelos cognitivos para aquisição automática de conhecimento

  • Bases de Dados – Utilização de técnicas e pesquisas com o objeto de melhorar e aprimorar a exploração das características dos dados.

  • Estatística e Matemática – Utilização de modelos matemáticos ou estatísticos para criação e identificação de padrões e regras entre os dados.

  • Sistemas Especialistas – são programas de computadores de inteligência artificial, ou seja, soluções criadas em linguagem de máquina para resolver problemas do mundo real.

  • Visualização de Dados – Descoberta da informação, ou seja, análise do resultado final que pode ser demonstrado em forma de gráficos, figuras e ícones.

Desta forma a mineração de dados utilizando KDD é a combinação de diferentes técnicas.

[]s

terça-feira, 17 de julho de 2012

Consumo de CPU – SQL Server

 

Retorna as 10 consultas com maior consumo de CPU:

SELECT TOP 10 total_worker_time/execution_count AS [Avg CPU Time],
Plan_handle, query_plan
FROM sys.dm_exec_query_stats AS qs
CROSS APPLY sys.dm_exec_text_query_plan(qs.plan_handle, 0, -1)
ORDER BY total_worker_time/execution_count DESC;

[]s

sábado, 14 de julho de 2012

Introdução a Data mining

Um diferencial competitivo é quando a empresa torna-se capaz de criar modelos de mineração de dados, ou seja, baseado em um histórico de dados encontra tendências ou padrões de comportamento de forma inteligente.

Empresas armazenam em seus bancos de dados diversas informações e acontecimentos em todos os departamentos, uma empresa financeira, por exemplo, armazenam informações de orçamento, contábil, financeiro, jurídico, clientes entre outros. A função do BI é juntar toda essa informação e consolidar em uma única base de dados para em seguida aplicar a mineração de dados.

Segundo (Fayyad et al. 1996) Data Mining é o processo não trivial de identificar, em dados, padrões válidos, novos, potencialmente úteis e ultimamente compreensíveis.

Conforme Groth (1998) e Han, Chen & Yu (1996) os passos necessários à Data Mining são representados na figura a seguir:

Existem diferentes tipos de métodos para mineração de dados, são elas: Classificação, Modelos de Relacionamento entre Variáveis, Análise de Agrupamento, Sumarização, Modelo de Dependência, Regras de Associação e Análise de Séries Temporais, conforme citação e definição feita por Fayyad et al. (1996a).

A maioria dos métodos são baseados em técnicas de reconhecimento de padrões e estatística, neurais, lógica e algoritmos genéticos.

De acordo com FAYYAD et al. (1996) os métodos tradicionais de Data Mining são:

  • Classificação: associa ou classifica um item a uma ou várias classes categóricas pré-definidas.

  • Modelos de Relacionamento entre Variáveis: associa um item a uma ou mais variáveis de predição de valores reais, consideradas variáveis independentes ou exploratórias.

  • Análise de Agrupamento (Cluster): associa um item a uma ou várias classes categóricas (ou clusters), determinando as classes pelos dados, independentemente da classificação pré-definida.

  • Sumarização: determina uma descrição compacta para um dado subconjunto. As medidas de posição e variabilidade são exemplos simples de sumarização.

  • Modelo de Dependência: descreve dependências significativas entre variáveis. Modelos de dependência existem em dois níveis: estruturado e quantitativo.

  • Regras de Associação: determinam relações entre campos de um banco de dados.

  • Análise de Séries Temporais: determina características sequenciais, como dados com dependência no tempo.

[]s

quinta-feira, 12 de julho de 2012

Introdução a BI

Atualmente, diferentes tipos de empresas, ou seja, empresas de pequeno, médio e grande porte necessitam do BI para auxiliá-las nas mais diferentes situações para a tomada de decisão, otimização dos processos, redução de custo, previsões e planos estratégicos.

O termo Business intelligence não é recente, surgiu na década de 80 no Gartner Group e surgiu da necessidade de cruzar informações para a realização de uma gestão empresarial eficaz. Segundo Howard Dresner, vice-presidente da empresa Gartner e detentor da paternidade do termo, o interesse pelo BI vem crescendo na medida em que seu emprego possibilita às organizações realizar uma série de análises e projeções, de forma a agilizar os processos relacionados às tomadas de decisão.

Para que um projeto de BI seja bem sucedido, deve-se levar em consideração alguns fatores importantes, ou seja, deve ser respeitadas algumas fases a fim de garantir a qualidade final do projeto.

  • Planejamento: Obter conhecimentos dos processos da empresa que irá implantar uma solução BI para entender quais os objetivos do planejamento estratégico do negócio. Em toda a fase do planejamento a participação da área de negócios é essencial.

  • Escolha da ferramenta: Deve-se levar em consideração o custo com a aquisição de ferramentas, pois o pacote de ferramentas não deve comprometer o orçamento do projeto.

  • Extração da informação: Garantir a qualidade da informação através de um processo Extract Transfomation and Load (ETL) que seja eficiente e eficaz.

  • Enriquecimento e tratamento das informações: Garantir que após a extração da informação um processo ETL seja responsável por realizar todo o tratamento, validação e consistência dos dados.

  • Carga do Data Warehouse (DW): Após a extração e tratamento da informação inclusão da massa de dados em um ambiente dimensional

  • Apresentação da informação: Criação de relatórios analíticos que venham atender a necessidade inicial da construção do BI

  • Treinamento dos Usuários: São as peças chaves para o sucesso do BI. Eles devem conhecer e saber como obter a informação de maneira que sejam motivados a utilizar.

[]s

terça-feira, 10 de julho de 2012

Sybase IQ – Tipos de Índice

Quando você carregar dados em uma tabela, o Sybase IQ fisicamente armazena dados por coluna e não por linha. Em um ambiente de data warehousing é de costume olhar atributos específicos de milhares ou milhões de linhas de dados, ao invés de linhas completas.

Além de índices de coluna, o Sybase IQ permite que você crie índice de joins. Join indexes são criados para otimizar consultas entre tabelas.

O conjunto de índices definido para uma determinada coluna pode ter um impacto dramático na velocidade de processamento de consulta. Há quatro principais critérios para a escolha de índices:

• Número de valores exclusivos
• Tipos de consultas
• A utilização de espaço em disco
• Tipos de dados

Lembre-se também que todas as colunas são automaticamente armazenados em uma maneira que facilita projeções rápidas.

Tipos de Índices:

Tipo de Indice Propósito

Comparação (CMP)

Armazena a comparação binária (<,> =, <=,> =, ou NE) de quaisquer duas colunas com tipos idênticos de dados, precisão e escala.

DATE

Um índice em colunas de dados DATE tipo usado para processar consultas que envolvam data.

Datetime (DTTM)

Um índice em colunas de dados DATETIME ou TIMESTAMP tipo usados ​​para processar consultas data e hora.

High_Group (HG)

Um índice B-tree para processar a igualdade e do grupo através de operações sobre dados de alta cardinalidade. (Recomendado para mais de 1.000 valores distintos ou para uma tabela com menos do que 25.000 linhas.)

High_Non_Group (HNG)

Um índice bitmap (não baseado em valor) ideal para a maioria das operações de cardinalidade alta DSS envolvendo intervalos ou agregados.

Low_Fast (LF)

Índice Bitmap baseada em valor para o processamento de consultas sobre cardinalidade baixa de dados. (Recomendado para até 1.000 valores distintos e mais de 25.000 linhas na tabela. Pode suportar até 10.000 valores distintos.)

TIME

Um índice em colunas de dados Time tipo usado para processar consultas que envolvam tempo.

WD

Utilizado para palavras-chave de índice, tratando o conteúdo de um CHAR, VARCHAR, LONG VARCHAR ou coluna como uma lista delimitada.

Join Indexes Índice entre campos chaves utilizados nos joins entre tabelas

Nos próximos posts iremos ver em detalhes cada um dos tipos de índices mencionados acima

Fonte: http://infocenter.sybase.com

[]s