Note pour plus tard: Bloqué à l'écran de login - Linux Mint Forums

Dans le cas où on est bloqué à l'écran de login sous linux (mint ici):

  1. passer au terminal avec Ctrl + Alt + F6
  2. effacer les fichiers .dmrc, .ICEauthority, .Xauthority dans le dossier home/TonNom : rm .dmrc rm .ICEauthority rm .Xauthority
  3. puis redémarrer sudo reboot

Super Useful CSS Resources 🌈 - DEV Community 👩‍💻👨‍💻

De côté pour plus tard: en particulier les usages exotiques de CSS.

Outils gratuits en ligne de traitement d'image automatique (et de video et de son) MAJ

📋 Note pour plus tard

Image

Vidéo et son

Générateur

BronKOBOt (@bronkobot@botsin.space) - Faire un Bot Mastodon from scratch.

Tiens... et si je faisais un bot pour poster une citation par jour tirée des passages de romans que j'ai sélectionnés et stockés su ma Kobo ?!

C'est par ces mots que j'ai commencé à galérer... comme quoi, il suffit d'une idée à la con pour se lancer dans tout un merdier pourtant parfaitement facultatif ...

Le postulat de départ

Je veux qu'un BOT mastodon poste une citation de mes bookmarks de liseuse DONC il faut récupérer ces passages bookmarkés.

Donc, il faut trouver le fichier de base de donnée.

Puis il faut extraire les données intéressantes.

Puis utiliser ces données dans un BOT qui sera appelé une fois par jour.

Étape 1: trouver et comprendre les données sur la KoBo

En fouillant un peu, on trouve un fichier sqlite (JOIE) dont le chemin est .kobo/KoboReader.sqlite

Comment différencier la base de   livres des autres ?!    Ben elle pèse plus de 700mo...    C'est un signe.

Un passage par DBBrowser pour SQlite permet de jeter un oeil sur la structure des données.

Idéalement, il me faut deux informations: la citation et le titre du bouquin dont elle est extraite.

drame.jpeg

En fait les titres se trouvent dans la table content et les annotations dans la table Bookmark

deux tables

Je pourrais utiliser Calibre et chercher un moyen de faire un export complet de ces deux données uniquement. Pas sûr que ça marche. Ou alors faire un export via le DBexplorer pis me retaper le truc à chaque export...

Étape 2 : extraire les données et les préparer pour le Bot

En vieux programmeur qui bricole, je vois là un prétexte pour coder une petite appli en python qui se chargera de l'extraction.

Mon problème, c'est que je me sers des notes de la Kobo pour retenir des passages intéressants mais aussi, parfois, pour noter vite fait un mot de vocabulaire espagnol que je ne connaissais pas et dont je veux conserver la traduction. Mais ces mots de vocabulaire ne sont pas des citations: il faudrait donc les virer à la main à chaque fois. C'est chiant.

L'appli devra donc permettre de filtrer les citations avant de générer un fichier exploitable par le bot.

Pour faire court

J'ai fait l'appli en question: elle permet donc de récupérer les données, filtrer en fonction de la longueur de la citation ou du fait qu'elle est ou pas accompagnée d'une note personnelle...

Capture du 2022-12-03 15-57-22.png

On peut formater les données selon plusieurs modèles (HTML, Json, Markdown, TXT brut, BOT) voire même créer son propre format (genre %title:«%quote» )

Si ça intéresse quelqu'un,   contactez-moi vu que j'ai la  flemme de mettre ça là

Voilà le ZIP : Kobone : KOBO Note Extractor

Étape 3 : coder un bot en PHP afin de l'appeler par la suite avec un CRONJob.

Rien d'extraordinaire ici: je fais un script qui parse le fichier obtenu à l'étape précédente, tire une citation au hasard et la poste sur le compte Masto du Bot.

Le point le plus intéressant du bouzin est plutôt la fonction servant à poster sur un compte mastodon:


define('TOKEN','letokendesécuritéquetuchopesdansmastodon');
define('MASTODON_URL','https://botsin.space/'); // Ici, il faut coller l'url de votre serveur mastodon
define('HEADER',"Citation du jour:");
 function post2Mastodon($data=null){
        if (!$data){return false;}
        $headers = [
          'Authorization: Bearer '. TOKEN
        ];
        $data=[
            'status'=> HEADER.$data,
            'language'=>"fr",
            'visibility' => 'public'
        ];
        $ch_status = curl_init();
        curl_setopt($ch_status, CURLOPT_URL,  MASTODON_URL.'/api/v1/statuses');
        curl_setopt($ch_status, CURLOPT_POST, 1);
        curl_setopt($ch_status, CURLOPT_POSTFIELDS, $data);
        curl_setopt($ch_status, CURLOPT_RETURNTRANSFER, true);
        curl_setopt($ch_status, CURLOPT_HTTPHEADER, $headers);
        $output_status = json_decode(curl_exec($ch_status));
        curl_close ($ch_status);
        return $output_status;
    }

Étape 4: Créer une appli Mastodon pour avoir un jeton d'utilisation

Aller sur le compte mastodon en question, puis dans les préférences.

Cliquer sur «developpement» puis «Nouvelle application».

Remplir le formulaire simplissime puis valider. Cliquez ensuite sur le nom de votre application dans la nouvelle page et copiez votre jeton d’accès. C'est celui-ci qu'il faut coller dans le script PHP (dans la constante TOKEN)

Étape 5 : Définir un Cronjob

Direction le panneau de config de votre hébergement, rubrique cronjob. Sur Cpanel c'est là :

Capture du 2022-12-03 16-11-42.png

Définissez la fréquence (pour moi une fois par jour) et l'heure (8:00).

Ensuite, il faut définir la commande qui va appeler le script du BOT: wget fera l'affaire...

wget -qO /dev/null http://xxxxxxxxxxx.xx/index.php

L'option -q pour quiet et -O /dev/null pour éviter d'avoir un fichier de sortie qui se crée à la racine.

Capture du 2022-12-04 11-10-50.png

Fin

Une fois tout ça terminé, j'ai bien un bot qui poste une citation à 8:00 tous les jours.

capture du bot

Bon, elles ne seront pas toujours bien formatées vu que la sélection de texte sur liseuse c'est un peu touchy... mais c'était plus pour apprendre à le faire qu'autre chose...

Pis ça m'a permis de me  remettre à Python...

https://botsin.space/@bronkobot

Optipic: une «api» pour optimiser les images

Le cadeau du jour: un script qui permet d'automatiser l'optimisation d'une image pour le ouaibe sans passer par une appli quelconque.

Le problème

Tout le monde est d'accord pour affirmer qu'il est indispensable de minimiser le poids des pages web et que dans cette optique, le premier geste - après avoir viré les bibliothèques inutiles bien entendu - reste l'optimisation des images.

J'avais vu passer un article fort bien écrit sur ce sujet mais hélas, j'ai omis de le bookmarker et paf: le voilà perdu dans les méandres de mon historique sur un des ordinateurs que j'utilise.

Tout le monde est d'accord sur le principe mais souvent, c'est comme l'écriture de la doc ou les tests unitaires: on a la flemme de s'y coller...

J'ai parfaitement conscience  de la déferlante de commentaires  que cette comparaison risque  de me valoir !

Ze solution

L'idéal serait bien sûr que l'optimisation soit transparente et automatique... genre: tu te contentes de passer à la balise img l'URL de l'API avec celle de l'image et POF, tu as l'image en version optimisée.

Comment ça   «t'es pas cap' ?»

Optipic est donc un script auquel on passe l'URL d'une image, le format souhaité, le niveau de qualité et -éventuellement - la largeur maximum pour obtenir en retour l'image transformée.

Les paramètres sont les suivants:

  • i ➜ l'url de l'image
  • maxwidth ➜ la largeur maximum de l'image (opt.)
  • format ➜ le format de sortie de l'image : jpg,gif,png,webp,avif (PHP 8 minimum pour l'avif)
  • quality ➜ la qualité (niveau de compression) de 0 à 100

Le script renvoie directement l'image transformée avec le header adéquat et du coup, c'est transparent pour HTML/CSS.

Notez que l'image optimisée est sauvée dans le dossier rendered/ afin d'éviter une charge inutile: si une image a déjà été optimisée, le script la sert directement au lieu de la refaire à chaque fois.

But there's more !

Même si ce script est déjà à ce stade absolument fabuleux (si, si !), je me suis dit que les paramètres risquaient de se répéter et qu'il pouvait s'avérer fastidieux de retaper le tout à chaque fois. Par conséquent, j'ai ajouté la possibilité de créer des scripts d'optimisation - un peu comme dans scriptopic.

Ainsi, si vous placez un fichier PHP contenant les paramètres dans le dossier scripts/ , vous pouvez l'appeler via le paramètre $_GET script:

Exemple: je cree scripts/webp.php et je mets dedans:


// webp  50%
$params=[
    'format'        =>'webp',
    'quality'       =>50,
    'maxwidth'      =>null
];

Puis je l'appelle en faisant : api.url/?script=webp&i=http:/image.url/pic.jpg

Pour le moment, il y a quatre scripts: jpg80,jpg70,avif,webp... à vous de créer les vôtres en fonction de vos besoins...

Et ça marche ?

Ben j'ai fait un test dans ce blog pour voir avec mon image de titre LOL:

version originale

qui pèse 113 ko en jpg

Puis avec son optimisation via le script webp ci-dessus:

version optimisée

qui ne pèse plus que... 18 ko en webp 50%

Et ça juste en rajoutant https://api.warriordudimanche.net/optipic/?script=webp&i= dans le chemin de l'image.

la classe

En cas d'erreur ?

Si Optipic ne parvient pas à créer l'image, il crée une image d'erreur à la place, histoire de voir le souci quand même...

la classe

Ce comportement peut être débrayé avec la constante ERROR_PIC ligne 29.

Test, téléchargement pis tout ça

Comme pour toutes les api de ma page, le script est téléchargeable via le ?download : https://api.warriordudimanche.net/optipic/?download et testable au même endroit: https://api.warriordudimanche.net/optipic/?i=...

Nota bene

  1. Pensez bien à mettre le paramètre d'URL (i) en dernier car sinon, php inclura les paramètres dans l'URL passée
  2. Même avec un script vous pouvez toujours changer un paramètre. Exemple: ?script=webp&quality=30&i=xxx permet de changer la qualité précisée dans le script (50).
  3. Par défaut, le format de sortie est le jpeg mais c'est configurable dans la constante DEFAULT_FORMAT ligne 28

Au passage, ce script utilise une classe que j'avais codée pour scriptopic: pictools. Grâce à elle, le travail d'optimisation tient en


    $picture=new pictool($params);
    $picture->load($url);
    if (!empty($params['maxwidth'])){
        $picture->resize($params['maxwidth']);
    }
    $picture->save($generated_picture_path);
    $picture->display();

Cadeau !

Merci qui ?!
Qui a dit   jacky et michel ?!

Epson va arrêter de vendre les imprimantes laser trop énergivores - ZDNet

Réaction à chaud, donc incomplète.

Le fabricant d'imprimantes Epson a annoncé qu'il allait cesser de vendre et de distribuer des imprimantes laser en raison des problèmes de durabilité causés par le chauffage.

LOL: les imprimantes jet d'encre qui se foutent de la durabilité des imprimantes laser...
On parle bien des imprimantes jet d'encre dont le prix des cartouches rendent plus rentable de changer d'imprimante que d'en acheter de nouvelles ? Je me rends pas compte...

J'ai eu deux imprimantes laser en plus de 20 ans... :

  1. 🟢 C'est robuste, contrairement à ce que dit cet article.

  2. 🟢 C'est rapide

  3. 🟢 le rendu est très propre

  4. 🟢 le coût à la page est ridicule.

  5. 🟢 les cartouches durent longtemps

  6. 🔴 C'est plus cher à l'achat

  7. 🔴 c'est plus volumineux

  8. 🟠 les cartouches sont plus volumineuses mais elles permettent d'imprimer dix fois plus de pages... niveau pollution, ça doit être kifkif

« La technologie jet d'encre permet de réduire la consommation d'énergie par rapport au laser, et avec une empreinte compacte et une conception légère, ces produits contribuent à limiter les ressources utilisées pendant la production et l'expédition », a déclaré Epson. « Cette taille réduite signifie également qu'elles s'intègrent facilement au bureau et permettent de gagner de la place. Les cartouches d'encre à haut rendement réduisent également l'utilisation de matériaux, l'expédition, le stockage et la gestion de fin d'utilisation des consommables. »

Alors là, on est dans le marketing brut en mode «prends-moi bien pour un con» qui tend à chercher le moindre point positif où qu'il se cache.

  • réduire la consommation d'énergie ? oui, sans doute, si on imprime H24, sinon, je ne suis pas persuadé que ce soit si significatif que ça à l'échelle d'une maison/un bureau
  • limiter les ressources de production/livraison: Je LOLe... le colis est un peu plus petit mais est-ce si différent ? En particulier avec des prix qui poussent à changer le matos plutôt que de racheter des cartouches comme on a vu un moment.
  • taille réduite qui s'intègre mieux au bureau... #payeTonMarketingToutPété «mon produit il est mieux passque il est plus petit d'abord» Ok, ça peut être un critère de choix pour celui qui a un tout petit espace, mais certainement pas un argument dans le débat Laser/jet d'encre...
  • «Les cartouches d'encre à haut rendement» : en dehors du terme bullshit marketteux, le mec a assez de gueule pour te sous-entendre que les cartouches jet d'encre tiennent plus que les cartouches de toner. Ya des claques sur les couilles qui se perdent.

Les cartouches de toner se trouvent pour une quarantaine d'euros et avec, t'es parti pour 3000 à 5000 pages tranquilou selon ta primante. Vas-y faire pareil avec des cartouches de jet d'encre qui contiennent un liquide vendu plus cher que du channel N°5 et avec lesquelles tu imprimeras péniblement quelques centaines de page.

Après, il y a les imprimantes à réservoir d'encre, que je ne connais pas du tout et au sujet desquelles je vais tout simplement fermer ma gueule vu que je n'en ai jamais eu une entre les pognes.

PS.

Sur le site d'EPSON, ils parlent de 14000 pages avec l'encre livrée dans le paquet de l'ecotank. Je suis sceptique sur l'argument de vente. Et le fait que ce soit Hussein Bolt, dont la compétence en la matière reste à confirmer, qui m'explique ne change rien à l'affaire.

YoutubeRSS

Hier, je me suis aperçu que le bookmarklet que j'avais fait pour trouver le flux RSS d'une chaîne youtube ne fonctionnait pas toujours 🤬: en effet, si l'URL de la chaîne n'est pas du type www.youtube.com/channel/xxxCHANNEL_IDxxx ça ne fonctionne pas... Or, les chaînes peuvent être aussi sous une forme dans laquelle le channel_id n'apparaît pas.

zut flûte et cacaboudin

Du coup, je m'y mets

Au lieu de laisser youtube me chier dans les bottes, je me suis dit que, si le channel_id n'est pas dans l'URL, il doit être planqué quelque part dans le html de la page.

En fouillant un peu, twingo bongo jannielongo bingo 🥳 J'ai trouvé ça en parsant avec (presque) la même regex que pour l'URL.

con.jpeg

J'ai donc codé vite fait une «api» qui renvoie l'URL du flux RSS d'une chaîne Youtube dont on fournit l'adresse.

On peut l'utiliser avec le frontend minimaliste prévu, en faisant une requête GET ou via le bookmarklet qui va bien.

Le tout est bien entendu utilisable, autohébergeable et modifiable, comme d'habitude

Allez !

Fil RSS des articles