Documentation
L'analyse des URLs utilise les métadonnées fournies par le domaine internet indiqué. En conséquence pour un site qui
fournit peu ou pas d'information(s) en métadonnée, le résultat sera décevant. Pour y remédier, certains
sites sont spécifiquement intégrés à l'outil. Pour ces sites, la liste des informations
qui est extraite est développée au maximum du possible. D'autres sites pourront être rajoutés dans le futur, pour cela
il est possible de faire une demande
ici.
De même que pour les URLs simples, les URLs de type pdf sont traitées grâce à l'analyse des métadonnées du document pdf. Ce
procédé étant assez lourd, il est possible que la requête prenne du temps (ce temps augmentant avec la taille du pdf). Par ailleurs
les métadonnées d'un document pdf étant la plupart du temps très succintes, il est fort probable que le résultat ne sera qu'une ébauche
demandant des retouches manuelles.
L'outil utilise les métadonnées fournies par
Crossref et
Data
Cite, deux bases de données qui recensent la plupart des DOIs existantes. Il se peut cependant que le DOI indiqué soit
répertorié dans une autre base de données, dans ce cas le modèle ne pourra être établi.
Pour les ISBNs, ce sont les métadonnées fournies par l'
API de Google Books ainsi
que l'
API de l'Open Library qui sont utilisées.
Là encore, il est possible que certains ISBNs ne soient pas connus, cependant dans la plupart des cas l'outil
fonctionne correctement.
Références
- Outil utilisant une partie du code proposé par Dereckson.
- Utilisation de Skeleton pour le design adaptatif de la page.
- Merci au projet Toile-Libre pour l'hébergement de la page.