Warning: Constant WP_MEMORY_LIMIT already defined in /home/elorenzo/domains/arvo.es/public_html/dspace/wp-config.php on line 94 Documentación no técnica | Hablando de DSpace - Part 2
Enviado por Emilio Lorenzo
el 2019/11/11Comentarios desactivados en Adaptando a OpenAIRE 4 (II). Vocabularios COAR de tipología
En el nuevo perfil de aplicación usado por OpenAIRE 4, los elementos descriptores de tipologías deben exponerse en el elemento oaire:resourceType y seguir los formatos definidos por el vocabulario controlado COAR Resource Type Genres. Mientras que el primer requisito no debiera plantearnos complicaciones, el uso de un nuevo vocabulario (descriptor de tipologías) tiene un impacto sustancial en cualquier repositorio.
Expliquemos. La mayor parte de los repositorios, compatibles OpenAIRE 1, 2 o 3, están usando para la descripción de los tipos de recurso el vocabulario originado por el proyecto DRIVER, info:eu-repo-publication-type-terms, y ahora habrá que cambiar al nuevo vocabulario.
Si comparamos los dos vocabularios observamos que solo un pequeño número de términos son equivalentes, sintáctica y semánticamente, La equivalencia no es generalizada, principalmente porque estamos comparando un vocabulario de 16 términos con otro mas extenso de 58.
Posibles soluciones
La primera, realizar una doble metadatación, duplicando los elementos descritores de tipología, conteniendo el repositorio elementos descriptivos info:eurepo/semantics y elementos oaire. Deberá ampliar los formularios de captura de datos y otras adaptaciones no excesivamente complejas. En los interfaces OAI-PMH (recordemos que posiblemente tengamos que mantener la compatibilidad OpenAIRE 3 y 4 un tiempo) expondremos (filtraremos) solo los elementos correspondientes de cada variante.
La segunda opción que tenemos consiste en mantener las metadataciones actuales. No perderá la compatibilidad OpenAIRE 3, pero para lograr la adaptación a OpenAIRE 4 deberá evaluar las tipologías actualmente en uso en el repositorio y definir en el crosswalk OAI los mapeos necesarios entre los vocabularios DRIVER y los vocabularios COAR. No habrá ganado la mejor precisión descriptiva del vocabulario COAR, pero se habrá dado un tiempo para el engorroso cambio de tipologías…..
Una tercera solución consiste en «atreverse» a sustituir en las metadataciones de los ítems, todos los dc.type con el vocabulario infoeurepo/semantics por las más precisas COAR Genre Types. Aparte del esfuerzo requerido, tenga cuidado porque podría perder la compatibilidad OpenAIRE3 actual (que suponemos que todavía es «recomendable» mantener), por lo que deberá efectuar el mapeo inverso en el interface OAI.
Hay otras opciones intermedias, pero básicamente hemos contado lo fundamental. Envíenos dudas y precisiones a lo contado en los comentarios a este post.
La aparición de OpenAIRE 4 (OpenAIRE Guidelines for Literature Repository Managers v4) a finales de 2018 plantea una serie de retos a los repositorios institucionales, como continuación de las sucesivas adaptaciones que OpenAIRE ha ido planteándo(nos) desde el año 2010.
En las VIII Jornadas OS Repositorios – XVIII Workshop de Proyectos Digitales de REBIUN, celebradas en León a finales de septiembre, tuvimos la oportunidad de hablar (en un triple ataque, una presentación en el evento paralelo organizado por la FECYT titulado «Nuevos servicios de OpenAIRE para gestores de repositorios», una comunicación al congreso conjuntamente con la Universidad de Huelva y un póster adicional) acerca de los condicionantes, problemas, alternativas y soluciones existentes ante el reto de la adaptación a OpenAIRE 4.
¿Cómo impacta en un repositorio el cumplimiento de las nuevas directrices ?
Aunque hay un número considerable de cambios y modificaciones que tendremos que hacer en nuestros repositorios, consideramos que los impactos principales serán:
La inclusión en los registros y posterior exposición OAI-PMH de los ORCID iDs, cuyo objetivo es tener una mayor precisión en la identificación de autorías y mayor visibilidad para los/as autores/as y para la institución¡¡¡
Incluir nuevos vocabularios COAR, que como todo cambio en los elementos descriptivos, revuelven el status quo de los metadatos.
Junto a lo anterior, se requiere la adaptación del interfaz OAI-PMH al nuevo esquema de recolección (perfil de aplicación) oai_openaire
¿De qué hablaremos?
En los posts que iremos dosificando (la adaptación es suficientemente compleja como para despacharla en un único post) seguiremos la propuesta que presentamos en el póster Adaptarse a OpenAIRE 4, explicado en diez pasos (disponible en https://buleria.unileon.es/handle/10612/11193
Adelantaremos su estructura :
Incorpore identificadores de autor a sus registros
Enviado por Emilio Lorenzo
el 2019/04/04Comentarios desactivados en Extracción automática de términos MeSH-DeCS en repositorios de ciencias de la salud: el caso de RUNA
En las jornadas Bibliosalud 2019, (Hospital Universitario Central de Asturias, 4 y 5 de Abril de 2019) presentamos un póster, realizado conjuntamente con Carmen Rodríguez Otero de Bibliosaúde-Biblioteca Virtual do Sistema Sanitario Público de Galicia, sobre los sistemas de extracción automatizada de palabras clave aplicados a repositorios temáticos.
Para administrar y mejorar las búsquedas en la literatura biomédica, la Biblioteca Nacional de Medicina de EE.UU. (NLM®) desarrolló el vocabulario controlado Medical Subject Heading (MeSH). La clasificación temática basada en vocabularios se ha identificado como uno de los factores principales en las estrategias de búsqueda y recuperación de documentos.
Desafortunadamente, dada su naturaleza especializada, la asignación manual de términos MeSH a artículos biomédicos es una tarea compleja, subjetiva y que requiere mucho tiempo, por lo que los sistemas de extracción automatizada de palabras clave (AKE) se convierten en soluciones evidentes para su incorporación a sistemas que necesitan describir y manejar miles de documentos, como son los repositorios.
En el póster se muestra la solución incorporada en el repositorio RUNA, repositorio institucional del Sistema Público de Salud de Galicia para facilitar la clasificación temática sobre vocabularios temáticos (MeSH-DeCS).
Se describe de forma específica el sistema de extracción automatica de términos de documentos y cómo se ha integrado dicha solución en el flujo de archivo de documentos en el repositorio para posibilitar el complemento por catalogadores expertos y así mejorar la calidad de la descripción temática efectuada.
Metodología El sistema construido se integra en el flujo de autoarchivo de los documentos del repositorio, con el fin de unir las ventajas del procesamiento automático con la existencia de un experto que realice la selección de los términos efectivamente usados. En este sentido el subsistema extractor automatizado se visiona como un pre-tratamiento del documento que propone términos de clasificación, que deberán luego ser validados y rechazados por el usuario experto del repositorio.
En primer lugar el documento, normalmente en formato PDF o en formatos tipo WORD, etc.. , es convertido a formato simple textual (txt). Este paso del proceso no sirve únicamente para normalizar la entrada documental al sistema extractor sino que el fichero transformado es usado también por el indexador a texto completo del repositorio RUNA.
A partir de ese fichero «simple» se realiza una primera selección de términos candidatos, con extracción de todas de las frases, palabras, términos y conceptos susceptibles de ser descriptores.
Sigue un proceso de puntuación y selección de términos. Todos los términos candidatos son puntuados combinando las propiedades de los términos (p.ej, su pertenencia al título del documento) con tecnicas de aprendizaje-máquina (machine learning techniques) para determinar la probabilidad de que un elemento sea un término clave. El sistema está configurado para proponer, a la finalización de este proceso un número determinado de términos. En la implementación específica que se ha realizado del motor de extracción, los elementos extraídos deben pertenecer al vocabulario MeSH-DeCS.
Los elementos extraídos se presentan al personal catalogador que en base a su experiencia puede aceptarlos, rechazarlos o añadir nuevos términos, como en un proceso normal de flujo de ingesta al repositorio, finalizando así el proceso de aceptación del documento en RUNA.
Como aspecto complementario, el sistema se inicializa mediante el suministro de un número suficiente de documentos, a modo de corpus, y sus correspondientes metadataciones temáticas realizadas por un experto. El motor de extracción realiza un primer ajuste de las probabilidades de los términos, efectuando así su aprendizaje inicial.
Igualmente, aunque no se ha implementado aún en RUNA, el flujo continuo de las selecciones, revisiones y aprobaciones efectuadas por el personal catalogador pueden ser usados para realimentar el motor de extracción, evolucionando las probabilidades asignadas a cada término y mejorando así la calidad de las propuestas automáticas.
La solución descrita, además del software Dspace del repositorio RUNA, se basa en Maui, un extractor de software libre (licencia GPL). Maui es el acrónimo de Multi-purpose automatic topic indexing, Indexador de tópicos automático y multi-propósito, un software diseñado por la doctora Alyona Medelyan
El núcleo de Maui es el sistema de aprendizaje-máquina denominado WEKA, que a su vez incorpora el algoritmo KEA de extracción de palabras clave.
Resultados y Conclusiones El sistema construido automatiza la extracción, descripción e indexado de términos tópicos sobre los documentos incorporados al repositorio RUNA. Además de efectuar una extracción automática, permite que el personal experto en catalogación seleccione (y añada/corrija si así lo considera) los términos MeSH-DeCS mas adecuados, mejorando así la calidad y precisión de la catalogación del documento.
Los sistemas de extracción automática de palabras clave pueden considerarse un complemento que facilite de manera eficiente la precisión de la catalogación temática de los documentos incorporados a los repositorios temáticos.
Enviado por Emilio Lorenzo
el 2018/10/08Comentarios desactivados en ¿y cómo es realmente el proceso de implantar DSpace?
Una pregunta recurrente en organizaciones que se están planteando la instalación de un repositorio institucional es qué pasos dar. Ya hace muchos años que el Manual LEADIRS II. Cómo crear un Repositorio Institucional, nos orientaba sobre todas las consideraciones a tener en cuenta a la hora de acometer un proyecto de este estilo, pero queríamos dar una visión más concisa basada en nuestra experiencia con muchos de ustedes.
Un aspecto principal a tener en cuenta en una implantación de Dspace es que los requisitos afloran muy progresivamente en la vida del proyecto, según los usuarios van ajustando y trasladando los modelos mentales conceptuales y las necesidades de la organización en requisitos y funcionalidades Dspace. Por esto desaconsejamos un modelo tradicional de toma de requisitos–> documento de requisitos–> desarrollo–> implantación… Mas bien el modelo sería iterativo, con una primera fase para cubrir los requisitos que ya se hayan explicitado y uno o varios ciclos posteriores para llevar el repositorio a puntos posteriores de adaptación a las necesidades de la institución…
Así, un plan constará de una fase inicial de toma de requisitos, incepción, en donde se identifican los parámetros principales de la instalación: equipamiento disponible hw/sw, tipo de objetos, estructura general de grupos-autorizaciones, origen de contenidos, necesidades de migración de contenidos, estructura de colecciones, interfaces con otros aplicativos, necesidades de recolección (harvesting) de/desde, integración con sistemas de autenticación, licenciamiento, gestión de derechos, y alguna cosa más… Parece mucho, pero en realidad es una fase bastante ligera…
En este punto se está en condiciones de construir y configurar una instalación base, comprobando que los aspectos técnicos se cumplen. Si no se requieren desarrollos, en un plazo breve se debería tener una instancia DSpace razonablemente operativa. Además, se aprovecha para identificar y dimensionar, si acaso, los posibles desarrollos a efectuar.
En paralelo se trabaja en configurar/parametrizar la estructura lógica de Dspace, mediante una serie de ciclos de evolución de colecciones, usuarios, metadatos, etc…. Nuestra experiencia nos dice que los usuarios agotan todo el tiempo disponible, y más, pero si la estructura de las colecciones es simple (colección: entendida como el conjunto de especificaciones de objetos-metadatos-permisos-pantallas de envío y de revisión) o la tenéis ya pensada, pues se puede hacer razonablemente rápido. No es intensivo en trabajo, pero podría dar lugar a períodos de implantación largos. Esa es la mala noticia. La buena es que por lo general no forma parte del camino crítico de una puesta en producción, ya que las actividades de ajuste «fino» se pueden hacer tras la puesta en producción, si así se determina…
Cuando el paso anterior está al 80%… ya se podría proceder a la carga inicial de contenidos, si existen, puesto que aportarán un valor inmediato a los usuarios. La carga de datos en general da problemas, porque se aprovecha para hacer revisión del material existente, complementar metadatos, etc… Señalaremos que al ser un proceso ad-hoc (aunque Dspace tenga herramientas específicas) pues siempre hay que inventar o reinventar algo.
En cuanto a cambiar la apariencia o look&feel, aspecto siempre recomendable, siempre se va mas rápido si nos adherimos al libro de estilo intitucional…si no, pues habrá que acometer un diseño especifico…
Y ya se está listo para salir en producción (y listos para acometer otras fases de evolución y crecimiento del repositorio), aunque antes hay que proceder a aprender y formar y divulgar internamente… como casi cualquier proyecto complejo.
Enviado por cfernandez
el 2018/05/25Comentarios desactivados en Nos adaptamos al RGPD
No queremos ser menos que todas las webs que se están actualizando con nuevas políticas de privacidad. Por eso te explicamos de la manera más simple cómo y para qué usamos tus datos.
Hemos creado una página en que te contamos qué datos obtenemos cuando navegas por nuestro blog y para qué usamos esos datos. Usamos las cookies míinimas para saber cuantas visitas hemos tenido, cómo evolluciona la web, o desde qué sitio nos leeis, ni más ni menos. Tambien te explicamos cómo controlar la información que esas cookies recogen. Tu decisión cuenta en cómo se usa la web y que datos se recogen.
Igualmente, como indica el RGPD, te informamos en esta página de cuáles son tus derechos en lo relativo a tus datos personales, y cómo ejercitarlos
Te recomendamos que te tomes uno minutos y leas en esas dos páginas la información sobre las políticas de privacidad y las políticas de cookies.
Esta nueva recomendación OpenAIRE, a fecha de escribir esto, aún con estatus de borrador, tiene dos objetivos principales, orientados a mejorar la calidad de la medida, control y seguimiento de los resultados de investigación: conectar correctamente los autores con su producción científica, y enlazar la información de financiación con esa producción.
Para lograr esta interoperabilidad, que de eso trata OpenAIRE, se propone un nuevo perfil de aplicación para la exposición OAI-PMH basado en Dublin Core y DataCite.
De interés en este perfil tenemos elementos ampliados de metadatación de autoría, recomendándose la inclusión de identificadores ISNI u ORCID.
Igualmente para la identificación de proyectos y agencias financiadoras se incorporan nuevos elementos de metadatación, fundingReference.
<datacite:fundingReference>
<datacite:funderName>European Commission</datacite:funderName>
<fundingStream>H2020 Marie Skłodowska-Curie Actions</fundingStream> <datacite:funderIdentifier
funderIdentifierType="Crossref Funder ID">
</datacite:funderIdentifier>
<datacite:awardNumber>
awardURI="http://cordis.europa.eu/project/rcn/195983_en.html">660668
</datacite:awardNumber>
<datacite:awardTitle>ACT against AMR</datacite:awardTitle>
</datacite:fundingReference>
No menos importante son los cambios de sintaxis de los metadatos de tipología, con inclusión de vocabularios COAR, versionados, etc..
¿Y en qué afecta a los repositorios?
Básicamente la inclusión de ORCID, realizada ya por un número considerable de repositorios institucionales, deberá ir pareja a la adaptación del interfaz OAI-PMH al nuevo esquema de recolección oaire. En un reciente proyecto piloto para la FECYT, hemos realizado una primera adaptación de un repositorio institucional para esa exposición OAI-PMH. Os informaremos próximamente de este proyecto, señalando además que el código es de uso público.
Igualmente los repositorios deberán capturar información (mas) precisa sobre los proyectos y la financiación de la que se derivan los resultados de investigación. Deseamos la aparición de servicios de consulta (APIs públicas) para facilitar esta tarea a los repositorios.
¡ Una nueva etapa para el ecosistema de repositorios y recolectadores con OpenAIRE4 !
Enviado por cfernandez
el 2018/04/11Comentarios desactivados en API de ORCID V1 y V2, acceso público
Creemos que son interesantes para los repositorios DSpace los servicios de integración que ofrece ORCID a través de su API (Application Programming Interface). La API, en su versión actual v2.0, ofrece un serie de funcionalidades que permiten a los repositorios (y otros sistemas) interactuar con ORCID.
Obtener el ORCID iD
Leer/recuperar datos públicos (ORCID iDs y datos autorizados por los autores)
Leer/recuperar datos privados (Si los autores han concedido autorización al que accede)
Notificaciones de actualización del perfil (webhooks)
Notificaciones cuando ocurren cambios en los ORCID iDs que se monitorean
Añadir y actualizar datos de registros ORCID
Creación de nuevos registros ORCID
Sólo algunas funciones API (1 y 2) son de libre uso, la denominada API-pública, mientras que el resto están restringidas al uso por aquellas organizaciones que contribuyen a la financiación de ORCID con una cuota anual (membresía básica y premium)
DSpace tiene incluidas desde el año 2014, con el lanzamiento de la versión 5, algunas capacidades de integración con ORCID usando la API-Pública, que se constuyeron por Atmire en el contexto de un proyecto con la Universidad de Missouri. La funcionalidad construida permite la consulta de identificadores correspondientes a los nombres de autor, y tras la validación, la incorporación del identificador y otros datos del registro ORCID a DSpace. Como aspecto importante de esta integración, se realizó con la API disponible en ese momento, V1. Lamentablemente esa versión de API ha sido retirada (deprecated) y mas lamentable aún, la V2 no ha mantenido la compatibilidad con los modos de recuperación de información de la versión anterior.
Just an FYI that ORCID.org has finally deprecated the v1 API that DSpace was using to look up authors. Their mailing list announcement[0] says that as of February 1, 2018 the default API version for calls to pub.orcid.org will become v2, and that v1 will move to a new URL until March 1, 2018, but this appears to be broken currently
Los usuarios del lookup de autoridades en este momento ya no pueden validar contra ORCID, en tanto no se desarrolla y prueba el acceso a la versión 2 de la API. El impacto es bastante limitado, pues la mayoría de repositorios con ORCID iDs no validaban directamente contra la bbdd de ORCID, sino únicamente contra la bbdd de autoridades del propio repositorio, no afectando en principio a las operativas de validación de autoridades.
Os mantendremos al corriente de los avances en los desarrollos de la nueva integración de DSpace con la API v2.
Enviado por cfernandez
el 2018/01/02Comentarios desactivados en Nueva versión del módulo de publicación en twitter.
A diferencia de las integraciones con capacidades 2.0 del tipo “add-this” disponibles hace tiempo en muchos repositorios, este módulo incluye la integracíón fuerte con la API de Twitter. Recientemente hemos actualizado la versión de este módulo, ahora en su versión 2.3 para permitir la publicación en diferentes perfiles twitter dependiendo de la colección de archivo, asi como para aprovechar la máximo la extensión a 280 caracteres introducida por Twitter.
El conector Twitter permite publicar en el perfil de twitter de un repositorio o una biblioteca los envíos publicados en el repositorio. La publicación se realiza en la última fase del proceso de ingesta o en fases posteriores, pues es posible re-postear un ítem cualquiera a selección del administrador, útil para destacar en cualquier momento ítems ya archivados y que pueda interesar su redifusión.
Enviado por cfernandez
el 2017/11/09Comentarios desactivados en Estrenamos blog, Hablando de OJS
Fruto de nuestra actividad profesional y experiencia, lanzamos un nuevo espacio de reflexión y divulgación de información sobre OJS homólogo a nuestro blog sobre temas de DSpace, denominado Hablando de OJS
Nuestro principal objetivo es aportar información de valor a todas aquellas personas interesadas en el mundo de las publicaciones electrónicas y, especialmente, a los usuarios del sistema OJS de PKP.
Confiamos en que los temas a tratar os resulten interesantes y pedimos, de manera anticipada, vuestra participación a través del blog para enriquecer nuestro espacio de divulgación de información y conocimientos OJS.
Usamos cookies propias y de terceros para mejorar la experiencia de navegación. Al continuar con la navegación entendemos que se acepta nuestra política de cookies.AceptoSaber más
Privacy & Cookies Policy
Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.