Visibilidade das revistas de CI nas mídias sociais

Contribuição do Ronaldo Ferreira de Araújo:

Sabemos que aspectos de visibilidade e impacto são questões centrais na comunicação científica, praticamente indissociáveis, especialmente quando se fala em avaliação de periódico científico. A primeira geralmente está associada ao reconhecimento da revista e a qualidade e credibilidade que obtém em determinada comunidade científica e CLARO, estar indexada em bases/índices de prestígio nacionais e internacionais. A segunda, por sua vez, é pensada nas tradicionais métricas de citação.

Mas pensando nos rumos de uma ciência aberta ou ciência 2.0 já não estaria na hora de repensar tais critérios, e porque não, incluir as novas maneiras que a informação científica passa a circular na websocial? Já tivemos aqui postagens do Moreno, Andréa e Iara sobre altmetrics (métricas alternativas) para artigos, buscando compreender a atenção online que estes alcançam. Mas e a atenção que as revistas recebem?

Aqui, com uma metodologia duvidosa e um pouco de ócio de férias, levantamos por meio de parametrizações em Application Programming Interface – APIs das mídias sociais Facebook e Twitter o alcance de 28 (URLs) revistas da área de CI. Os dados podem ser visto na Gráfico 1 (até 100) e no Gráfico 2 (acima de 100).
image
Gráfico 1 – Revistas por mídia social (até 100)

image (1)
Gráfico 2 – Revistas por mídia social (mais de 100)

Se olharmos os gráficos vamos perceber que umas revistas tem melhor desempenho em determinada mídia social que outra. Não há aqui nenhuma análise profunda, o intuito mesmo era passar o tempo. Mas achei interessante notar que, no geral, revistas com avaliação mais elevadas, recebem menos atenção online. O que acham?

Relação das revistas

  • R1 BIBLOS – Revista do Instituto de Ciências Humanas e da Informação
  • R2 Brazilian Journal of Information Science
  • R3 Em Questão: Revista da Faculdade de Biblioteconomia e Comunicação da UFRGS
  • R4 Informação & Tecnologia
  • R5 Informação Arquivística
  • R6 Bibliotecas Universitárias: pesquisas, experiências e perspectivas
  • R7 Informação & Informação
  • R8 RECIIS: Revista Eletrônica de Comunicação, Informação e Inovação em Saúde
  • R9 Perspectivas em Ciência da Informação
  • R10 Revista ACB
  • R11 Intexto
  • R12 Encontros Bibli: Revista Eletrônica de Biblioteconomia e Ciência da Informação
  • R13 A. to. Z. Revista Eletrônica
  • R14 Comunicação e Informação
  • R15 Informação@Profissões
  • R16 Múltiplos Olhares em Ciência da Informação
  • R17 Ciência da Informação
  • R18 InCID: Revista de Ciência da informação e Documentação
  • R19 Transinformação
  • R20 Biblionline
  • R21 Informação & Sociedade: Estudos
  • R22 Ponto de Acesso
  • R23 Liinc em revista
  • R24 DataGramaZero
  • R25 Tendências de Pesquisa Brasileira em Ciência da Informação
  • R26 Revista Biblioo
  • R27 Perspectivas em Gestão & Conhecimento
  • R28 Revista Brasileira de Biblioteconomia e Documentação
  • App Bibliotecas USP

    No dia 12 de dezembro de 2014, o Sistema Integrado de Bibliotecas da Universidade de São Paulo, em parceria com a Escola Politécnica e a Superintendência de Tecnologia da Informação da USP, lançaram o App para consulta no Catálogo chamado Bibliotecas USP. Está disponível na Apple Store e na Google Play

    Alguns Screenshots

    screen568x568

    screen568x568 (1)

    screen568x568 (2)

    A comunicação se dá com o Catálogo utilizando os WebServices do Primo, utilizado pelo Portal de Busca Integrada da USP
    Algumas funcionalidades:

    • Leitor de código de barras para consulta pelo ISBN (vai que você está em uma livraria e quer saber se tem aquele livro na Biblioteca)
    • Filtros para melhor precisão da busca
    • Geolocalização das Bibliotecas da USP
    • Salvar registros e enviá-los por e-mails

    E já estão em estudo a ampliação das funcionalidades do aplicativo.

    Já podemos incluí-lo na lista do Moreno no post: APLICATIVOS MOBILE EM BIBLIOTECAS BRASILEIRAS

    Bibliotecas nas propostas de governo dos candidatos à presidência nas eleições de 2014

    Para conseguir as propostas de governo, acesse o site do TSE: http://www.tse.jus.br/eleicoes/eleicoes-2014/sistema-de-divulgacao-de-candidaturas

    Aécio Neves

    III CULTURA:

    15. Robustecimento do Sistema Nacional de Bibliotecas, com vistas a implantar novas unidades e socorrer bibliotecas regionais de referência, detentoras de acervo de valor nacional, que serão beneficiadas com apoio federal, mesmo sem ter vínculo formal com o governo central.
    16. Estímulo a empresas estatais e privadas para a adoção de instituições culturais de âmbito nacional – museus ou bibliotecas, assegurando a sua sustentabilidade.

    IV. EDUCAÇÃO

    8. Apoio à modernização dos equipamentos escolares, incluindo a instalação de bibliotecas e laboratórios, computadores e acesso à Internet, e adequação térmica dos ambientes para o tempo de verão, garantindo a todas as escolas brasileiras condições adequadas de infraestrutura, incluindo conexão WIFI acessível a todo estudante.

    Dilma Rouseff

    Não tem a palavra biblioteca na proposta de governo

    Eduardo Jorge

    Não tem a palavra biblioteca na proposta de governo

    Pastor Everaldo

    Não tem a palavra biblioteca na proposta de governo

    Levy Fidelix

    Não tem a palavra biblioteca na proposta de governo

    Zé Maria

    Não tem a palavra biblioteca na proposta de governo

    Eymael

    Não tem a palavra biblioteca na proposta de governo

    Luciana Genro

    Não tem a palavra biblioteca na proposta de governo

    Marina Silva

    Não tem a palavra biblioteca na proposta de governo

    Estatísticas do catálogo a partir dos registros MARC

    Em muitas situações, é necessário conseguir fazer estatísticas do catálogo, ou mesmo, é desejável fazer um levantamento para entender melhor a sua coleção. Este post vai mostrar uma estratégia para que se possa conseguir estatísticas de maneira bem simples.

    1º Passo: Conseguir os registros MARC

    Conseguir uma cópia do seu catálogo em formato MARC. A maioria dos bons sistemas hoje exporta em formato MARC. Mesmo sistemas que não exportem em MARC podem ser usados neste caso, mas terá que entender como o sistema exporta e como conseguir extrair dados.

    2º Passo: Baixar e instalar o MarcEdit

    O MarcEdit é um editor de registros MARC bem eficiente, pode ser baixado em: http://marcedit.reeset.net/

    3º Passo: Extrair dados

    O MarcEdit tem uma ferramenta para transformar registros em CSV. O caminho para acessar é Tools > Export > Export Tab Delimited Records

    Aqui acredito que explicar a lógica é mais importante do que dar uma receita pronta. Os passos para exportação são: escolher o arquivo MARC de origem, escolher o nome e caminho do arquivo de destino, escolher quais campos serão exportados e como serão exportados.
    Para escolher quais estatísticas podem ser feitas no catálogo, primeiramente temos que pensar o que pode se agrupado. Se pensarmos por exemplo no campo título, não é possível fazer nenhum tipo de estatística usando ele, mas ele por ser útil para criar um gráfico de rede, por exemplo. Há também campos repetitivos, que você escolhe o separador e o MarcEdit coloca todos os campos em uma só coluna. Mas aqui como vamos ficar só nas estatísticas mais simples, vamos pensar em campos que pode ter valores repetidos, por exemplo, o ano de publicação. O campo normalmente do ano de publicação é o 260c. O resultado dessa exportação é um arquivo de texto como:

    260c
    1985
    1987
    2000
    2013
    2012
    1985
    1987

    É bem simples lidar com esse tipo de dado, encarando cada um dos registros como uma linha. Mas precisamos tomar um cuidado aqui. Ao utilizar os campos abaixo de 900, estaremos fazendo estatísticas dos registros. Caso precise fazer estatísticas dos exemplares, terá que escolher os campos em que os exemplares são registrados, normalmente algum 9XX ou para ter uma maior precisão, deverá conseguir filtrar os registros que não tenham exemplares.

    Também é possível combinar dados, tornando seu gráfico mais complexo. É possível, por exemplo, combinar o ano de publicação com o idioma da publicação (no exemplo, imaginamos que o valor está no campo 041a, apesar de saber que este não é o campo mais indicado para este valor), ficaria algo assim (é recomendável escolher o tab como separador):

    260c -> 041a
    1987 -> por
    1985 -> por
    2014 -> eng

    4º passo: Tratar os dados

    Este é um passo opcional, mas te permitirá verificar a qualidade dos dados de seu catálogo, além de deixar o gráfico mais correto. Em muitos casos, poderá haver problemas como erros de digitação, capitalização ou outras questões que podem influenciar o gráfico que você precisa gerar, para identificar rapidamente erros, recomendamos o software OpenRefine ( http://openrefine.org/ )
    Por exemplo, caso queria fazer um gráfico por editora, temos os dados:

    260b

    EDUSP
    EDUSP – USP
    EDUSP/USP
    Edusp

    O OpenRefine ajuda a identificar dados semelhantes e permite correção em grandes lotes. Facilita muito a vida.

    5º passo: Sumarizar e criar gráficos

    Há duas ótimas ferramentas para sumarizar e criar gráficos. A primeira é o Excel, utilizando as tabelas dinâmicas. E recomendo uma segunda, mais fácil, chamada Tableau Public. Ele tem uma limitação na versão gratuita de somente salvar online e de maneira publica seu dado, mas é uma ferramenta bastante completa. Nos dois casos, é possível fazer diversos tipos de gráficos e combinar tipos de dados e fazer gráficos mais complexos.

    Caso tenha alguma dúvida, pode entrar em contato comigo que ajudo na medida do possível: trmurakami EM gmail.com

    DSPACE 4: Vale a pena migrar?

    Já faz um tempinho que saiu a versão 4 do DSPACE. Uma nova versão normalmente traz diversas melhorias, porém também é necessário considerar que o DSPACE é um sistema de difícil atualização por conta das customizações necessárias. Este post vai tentar ajudar a refletir sobre a atualização para esta nova versão.

    Novidades

    Confiram o Release Notes completo. Destes, destaco:

    1. Índices agora estão integrados ao Discovery como padrão: Na versão 3, os índices eram gerados pelo Lucene e a busca usava o Discovery. A argumentação é que o Discovery é mais rápido e ainda fica mais fácil para gerenciar.
    2. Importação utilizando diversos formatos de metadados em lote, como por exemplo bibtex, csv, tsv, endnote e RIS
    3. JSPUI: O JSPUI é a interface que recebeu a maior quantidade de melhorias, como a adaptação ao Bootstrap, processo de submissão que permite uma consulta prévia a bases como a Crossref e PUBMED para importação de parte dos metadados, e interface do SHERPA para exibir a política da revista durante o processo de submissão
    4. Melhoria na ferramenta de EMBARGO
    5. Melhorias para a indexação correta no Google Scholar

    O JSPUI já está completamente traduzido, numa tradução que iniciei e foi corrigida e completada pela equipe do IBICT.

    Correções

    Agora os módulos OAI e SWORD estão funcionando corretamente. Mas versões anteriores apresentavam problemas que foram agora corrigidos.

    JSPUI vs. XMLUI

    Até a versão 3, é notório que o XMLUI era a interface mais completa do DSpace. Na versão 4, o JSPUI incorporou todas as funcionalidades do XMLUI e ainda trouxe as funcionalidades novas já mencionadas. Neste momento, com todas as funcionalidades e pela facilidade em se trabalhar no desenvolvimento em JSP, eu recomendo a escolha do JSPUI. Mas é claro que esta escolha tem que ser feita levando em consideração a característica da equipe que irá trabalhar no repositório.

    Dublin Core

    Nesta versão, foi adicionado um novo esquema de metadados Dublin Core, o dcterms. Fiz um gráfico para mostrar as diferenças e semelhanças entre os dois esquemas:

    Dublin Core Dspace 4

    Para migração de versão, não é necessário usar o novo esquema, dá para optar em manter somente os metadados já definidos.

    O processo de migração

    Se você vai iniciar um novo projeto, já recomendo optar pelo DSPACE 4.
    Mas como a maioria dos casos é de atualização, a recomendação é seguir a documentação.
    É importante lembrar que alguns comandos mudaram e é necessário se adaptar. A única consideração importante é que o discovery considera a tabela coluna discoverable da tabela item na indexação. (perdi uma semana para descobrir isso, e impacta diretamente em quantos registros são indexados.)

    Lista de discussão

    Ainda tem dúvida, poste ela na lista de discussão DSPACE-Brasil que sua dúvida poderá também ser a dúvida de outros participantes da lista, fomentando uma discussão interessante.

    Links úteis

    Documentação da versão 4
    Bootstrap
    All About DSpace 4 – Improved Interfaces for Man & Machine

    McDonalds vs. Bibliotecas

    Trabalhei dos 14 (corrigindo, na verdade 15) aos 19 no McDonalds. É algo que já não aparece no meu currículo, mas a cada dia percebo que muito do que aprendi sobre administração e cultura organizacional vieram deste período. A idéia deste post é tentar trazer algumas idéias que convivi naquele período, para estimular idéias para nós. Primeiro é importante contextuar, o Mc é um lugar que contrata jovens, sem experiência, pagando pouco e que convive com uma grande rotatividade de pessoas, tanto em relação a chefias quanto funcionários. Dito isso, algumas questões que aprendi lá:

    1) Padronização: Padronização é a chave de tudo. Desde a imagem institucional, até o funcionamento de suas lojas. Para que seja tudo padronizado, é necessário uma forte documentação de todos os processos e procedimentos. E estudos de mercado para que sejam definidos novos procedimentos. Eles até tinham uma “Universidade do Hambúrguer”. E uma vez definido um novo procedimento, era testado e se desse resultado, tinha que ser adotado por todas as lojas.

    2) Controle e ferramentas de gestão: Tudo era controlado, desde o tempo em que se frita as batatas, até a quantidade de condimentos e ingredientes do sanduíche. Ah, desperdícios também eram controlados e tudo era lançado em um sistema de gestão, que ajudava a planejar os futuros pedidos e melhorar a gestão interna para mudar procedimentos errados com dados muito recentes, muitas vezes sabíamos no dia seguinte que tivemos desperdício de alface no dia anterior.

    3) Treinamento: Para que tudo funcionasse bem, é essencial um treinamento constante e muito bem planejado. Qualquer funcionário novo, ao chegar na empresa recebia todas as informações sobre ela e era treinado nos 3 primeiros dias para conseguir “assumir” uma área dentro da linha de produção (é uma fábrica de comida). Ele passava por uma avaliação no terceiro dia e tinha que passar (se isso não acontecia, era treinado por mais 3 dias) e mesmo depois ele é acompanhado por seus “treinadores” (pessoas que tem a função de ensinar os outros funcionários, mas também trabalhar como eles). Para cada nova área, um novo treinamento planejado. Se tudo for muito rápido, por volta de 4 meses o novo funcionário passou por todas as áreas da loja. E em muitos casos ele vai embora logo depois por que conseguiu trabalho em outro lugar, então entram novos funcionários e começa tudo novamente.

    4) Comunicação eficiente: Tudo é controlado, inclusive a forma de se comunicar na empresa. Todo funcionário e ex-funcionário conhecia o famoso “Ok, obrigado”. Uma resposta padrão que mostrava que você entendeu a solicitação ou observação do interlocutor. Todos os procedimentos vem documentados em “Listas de verificações”. E todo dia antes do turno, era realizado uma reunião de turno, em que o gerente posicionava os funcionários e passava como foi o dia anterior, e o que ele esperava daquele dia de trabalho.

    5) Rodízio de área/função: Todos aprenderam a fazer de tudo na loja, então não há tarefa que qualquer um não saiba fazer (e tem muitas tarefas desagradáveis lá). Acaba que sempre alguém se identifica com uma tarefa e a tendência é ele fazer ela, mas procuravam evitar que uma pessoa sempre fizesse a mesma coisa. A loja não depende de ninguém, pode mudar todos os funcionários de uma loja, que se vierem outros de outras lojas treinados a loja andaria normalmente.

    É claro que isso só funciona naquele contexto, mas o que vejo em todas as bibliotecas que conheci é que a rotina formata a biblioteca, pouco é planejado de maneira consistente.
    Também a biblioteca é muito dependente de pessoas, se uma sai, a biblioteca muda. Muita rigidez é ruim, mas o contrário também não é bom.
    Não me xinguem, mas a maioria das organizações não trabalha bem com padronização no país. Não conheço dois catálogos que podem ser unidos sem que seja necessário alterar um ou outro para se adequarem. Ou mesmo catálogos antigos sofreram muitas mudanças de padrão durante o tempo em que existem e não foram corrigidos retrospectivamente. E pior, nem em publicações da área ou de eventos da área são seguidos os padrões corretamente.
    Ah, e as pessoas ganhavam pouco, mas eram menos desanimadas lá. 😛

    Fonte da Imagem: http://abilenepubliclibrary.blogspot.com.br/2013/12/fun-facts-friday-library-vs-mcdonalds.html

    Levantamento de dados de citações recebidas por periódicos da Ciência da Informação utilizando a base do Google Scholar

    Dados puros não respondem nada, mas nos ajudam a conseguir fazer perguntas melhores. Certo dia descobri um software que permite com até certa facilidade coletar dados de citações recebidas por autor ou periódico no Google Scholar, este software é o Publish or Perish. Já tinha ficado intrigado com a pergunta do Moreno para saber se podíamos usar o Scholar para levantar dados e esse software caiu bem. O Google Scholar não é uma base completa ou totalmente confiável, como nenhuma é. Então os dados que foram levantados não respondem perguntas, mas apenas demonstram um retrato da base do Google Scholar na período em que coletei os dados. A própria criadora do software levanta algumas questões sobre o uso do Google Scholar como fonte, vale a pena dar uma lida.
    A lógica da coleta utilizada foi a seguinte:
    1 – Levantamento dos nomes dos periódicos de CI, usando como base o Qualis da CAPES e comparando com listas de periódicos de CI que existem na Internet.
    2 – Consulta utilizando o software Publish or Perish usando como parâmetro o nome do periódico e quando tinha, sua variação de nome ou abreviatura.
    3 – Copiar e colar os resultados em uma planilha do Google Drive, que está pública para quem quiser verificar esses dados.
    4 – Criação de uma sheet consolidando todas as planilhas, filtrando neste consolidado apenas os trabalhos que receberam ao menos uma citação.
    5 – Elaboração de consolidados estatísticos utilizando as tabelas dinâmicas do Excel e o Public Tableau, que é uma ferramenta muito interessante.

    O resultado está hospedado de maneira dinâmica no Public Tableau (ATENÇÃO para as abas em cima das tabelas), clique na figura abaixo:

    publictableau

    Como iniciei o post, esses dados não trazem respostas, mas ajudam a levantar dúvidas que merecem, ai sim, um estudo detalhado para entender por que os resultados foram esses. Seria interessante levantarem perguntas nos comentários, talvez seja possível nos mobilizarmos para responder algumas delas…

    Aprender a pensar como programador: por que isso pode melhorar o desempenho de um bibliotecário

    A minha resolução de ano novo é aprender a pensar como programador. É muito provável que nunca programe nada, mas a cada dia me convenço que aprender lógica de programação me fará um bibliotecário mais eficiente (e ajudaria também outros bibliotecários, pelo menos aqueles que trabalham com sistemas de informação mais diretamente). Vou tentar listar algumas questões que me vem em mente:

    1 – Os sistemas de informação mudaram. Apesar de que não chegamos nem no nível de evolução da padronização dos nossos acervos e ainda, falhamos no nosso sonho de realizar um controle bibliográfico e ah, o RDA não terá bons resultados, apesar de todo o discurso falando que ele é o futuro. Dentre os principais motivos, a meu ver, o que eu indicaria como principal é a que falhamos em trabalhar colaborativamente (Mas isso é assunto para outro post). Então, se os sistemas mudaram, primeiramente temos que entender para onde estão indo e mudar nosso fazer para nos adaptarmos. Os sistemas estão caminhando rumo a integração, todos os principais sistemas possuem interface de compartilhamento de dados com outros sistemas. Penso que nosso papel será muito mais de integrar fontes diversas e conseguir selecionar entre elas o conteúdo relevante para o nosso usuário específico. E como existem padrões diferentes de descrição nas diversas fontes, aprender lógica é fundamental para conseguir fazer integração.

    2 – Temos muito o que aprender com a cultura do Software livre. São comunidades que conseguem se organizar para trabalhar coletivamente de maneira muito pouco hierárquica e o mais bacana, sem muitas vezes nem se conhecer. Mesmo assim, conseguem o que não conseguimos, construir coisas complexas coletivamente. Dedicamos muito tempo nosso em tarefas técnicas e muito pouco tempo para colaboração. Em sistemas complexos, ninguém mais consegue conhecer tudo. Mas esses sistemas são constituídos de contribuições pequenas de muitos. E o que dá ligação para tudo isso é a documentação do que foi feito. E a pró-atividade de programadores em ler a documentação e consultar várias fontes, criar e testar hipóteses para a solução dos problemas, antes até de consultar os pares.

    3 – Diminui drasticamente o tempo necessário para realizar algumas tarefas. Fazemos muitas tarefas repetitivas, muitas vezes complexas, mas mesmo assim repetitivas. E com o crescimento exponencial da quantidade de recursos, a tendência é só aumentar a quantidade de tarefas repetitivas. Aqui acho que o pensar como programador é mais importante, a idéia é que toda tarefa repetitiva pode ser automatizada, totalmente ou parcialmente, restando para nós somente o que realmente não foi possível ser automatizado.

    4 – E ainda, possibilita você conseguir conversar com um programador, o que melhora muito os resultados desta conversa no trabalho dele e nos resultados gerais.

    Por onde começar: Sugeriria começar estudando “Lógica de programação”. Depois expressões regulares (regex) e só ai uma linguagem de programação.

    Links úteis:

    RexEgg: http://www.rexegg.com/
    Code School: http://www.codeschool.com/.
    Bento – Learn to code: http://www.bentobox.io/index.html

    Para não ficar só numa argumentação vaga, aos poucos trarei exemplos para demonstrar resultados práticos.

    Usando XSL para converter XMLs em qualquer formato

    Em determinadas situações, nos vemos na tarefa de converter algum formato de representação descritiva para o formato do sistema em que trabalhamos. O XML é um formato amplamente adotado para a representação e que muitas vezes se torna dificil de trabalhar com ele por falta de padronização.

    O XML é uma ferramenta útil para diversas situações, aqui descreverei uma maneira simples de converter formatos de XML usando XSL:

    O primeiro passo é entender o formato de destino. Neste exemplo, usarei o DC importado pelo DSPACE. O formato

    [code language=”xml”]
    < ?xml version="1.0" encoding="UTF-8"?>
    <dublin_core schema="dc">
    <dcvalue element="title" qualifier="none" language="pt_BR"></dcvalue>
    </dublin_core>
    [/code]

    O segundo passo é entender o formato de origem. Como os formatos podem variar, o grande segredo é entender quais dados são importantes e em que lugar da estrutura do XML eles estão. O XML tem uma estrutura hierárquica, o que facilita a localização do dado.

    E o terceiro é criar um XSL para converter os dados:

    [code language=”xml”]
    < ?xml version="1.0" encoding="UTF-8"?>

    <xsl:stylesheet version="1.0" xmlns:xsl="http://www.w3.org/1999/XSL/Transform">

    <xsl:output method="xml" indent="yes" version="1.0" encoding="UTF-8"></xsl:output>

    <xsl:template match="/">
    <dublin_core schema="dc">
    <dcvalue element="title" qualifier="none" language="pt_BR"><xsl:value -of select="/art/fm/bibl/title"></xsl:value></dcvalue>
    </dublin_core>
    </xsl:template>

    </xsl:stylesheet>
    [/code]

    É necessário criar o formato de saida e usar o xsl para conseguir os valores das variáveis. Neste exemplo, o xsl é xsl:value-of select=”/art/fm/bibl/title” e que recupera o valor da hierarquia /art/fm/bibl/title no documento original e copia no documento de destino.

    Em caso de informações repetitivas, é necessário usar outros recursos do xsl como o xsl:if ou o xsl:for-each.

    O quarto passo é rodar em lote para quem usa Linux usando o programa xlstproc ( apt-get install xlstproc ): Para que ele rode, é necessário usar 3 argumentos: o arquivo original, o arquivo xsl contém as regras de conversão, e o nome do arquivo de saída.

    Não testei, mas é possível usar o XSL no MARCEdit também. É uma forma de usar a interface gráfica.