]> git.mxchange.org Git - fba.git/commitdiff
Continued:
authorRoland Häder <roland@mxchange.org>
Wed, 21 Jun 2023 13:45:46 +0000 (15:45 +0200)
committerRoland Häder <roland@mxchange.org>
Wed, 21 Jun 2023 13:45:46 +0000 (15:45 +0200)
- fixed some logger messages to lazy format

fba/http/federation.py
fba/networks/lemmy.py
fba/networks/mastodon.py
fba/networks/misskey.py
fba/networks/peertube.py

index a8291c7e01b22d4d347666545ca9d262282c9ec1..751b7fcc9916cf731990065290b053581a199a08 100644 (file)
@@ -178,7 +178,7 @@ def fetch_peers(domain: str, software: str) -> list:
     headers = tuple()
 
     try:
-        logger.debug(f"Checking CSRF for domain='{domain}'")
+        logger.debug("Checking CSRF for domain='%s'", domain)
         headers = csrf.determine(domain, dict())
     except network.exceptions as exception:
         logger.warning(f"Exception '{type(exception)}' during checking CSRF (fetch_peers,{__name__}) - EXIT!")
@@ -212,13 +212,13 @@ def fetch_peers(domain: str, software: str) -> list:
             logger.debug("Added instance(s) to peers")
         else:
             message = "JSON response does not contain 'federated_instances' or 'error_message'"
-            logger.warning(f"{message},domain='{domain}'")
+            logger.warning("message='%s',domain='%s'", message, domain)
             instances.set_last_error(domain, message)
     elif isinstance(data["json"], list):
-        # DEBUG print("DEBUG: Querying API was successful:", domain, len(data['json']))
+        logger.debug("Querying API was successful: domain='%s',data[json]()=%d", domain, len(data['json']))
         peers = data["json"]
     else:
-        logger.warning(f"Cannot parse data[json][]='{type(data['json'])}'")
+        logger.warning("Cannot parse data[json][]='%s'", type(data['json']))
 
     logger.debug(f"Adding '{len(peers)}' for domain='{domain}'")
     instances.set_total_peers(domain, peers)
@@ -256,7 +256,7 @@ def fetch_nodeinfo(domain: str, path: str = None) -> dict:
     data = dict()
 
     try:
-        logger.debug(f"Checking CSRF for domain='{domain}'")
+        logger.debug("Checking CSRF for domain='%s'", domain)
         headers = csrf.determine(domain, dict())
     except network.exceptions as exception:
         logger.warning(f"Exception '{type(exception)}' during checking CSRF (nodeinfo,{__name__}) - EXIT!")
@@ -323,7 +323,7 @@ def fetch_wellknown_nodeinfo(domain: str) -> dict:
     headers = tuple()
 
     try:
-        logger.debug(f"Checking CSRF for domain='{domain}'")
+        logger.debug("Checking CSRF for domain='%s'", domain)
         headers = csrf.determine(domain, dict())
     except network.exceptions as exception:
         logger.warning(f"Exception '{type(exception)}' during checking CSRF (fetch_wellknown_nodeinfo,{__name__}) - EXIT!")
index 408d863c55d6634264aedfdd1ce2a37f734ec39f..5c891748347b4ff2c77c6774a8db3f0dae15bd9e 100644 (file)
@@ -57,7 +57,7 @@ def fetch_peers(domain: str) -> list:
     headers = tuple()
 
     try:
-        logger.debug(f"Checking CSRF for domain='{domain}'")
+        logger.debug("Checking CSRF for domain='%s'", domain)
         headers = csrf.determine(domain, dict())
     except network.exceptions as exception:
         logger.warning(f"Exception '{type(exception)}' during checking CSRF (fetch_peers,{__name__}) - EXIT!")
index 21e8a7352a023ba599b72979c95b3c0bc71c3e6f..489062bd349881d997d9e16ce98de9dacd7d20e7 100644 (file)
@@ -168,7 +168,7 @@ def fetch_blocks(domain: str, origin: str, nodeinfo_url: str):
     headers = tuple()
 
     try:
-        logger.debug(f"Checking CSRF for domain='{domain}'")
+        logger.debug("Checking CSRF for domain='%s'", domain)
         headers = csrf.determine(domain, dict())
     except network.exceptions as exception:
         logger.warning(f"Exception '{type(exception)}' during checking CSRF (fetch_blocks,{__name__}) - EXIT!")
index 1ec9cb72b3e67b9508a82ad9ea6fa7ed11f1b724..6407fc8b430a525a484bed3ad9dd19585107022d 100644 (file)
@@ -56,7 +56,7 @@ def fetch_peers(domain: str) -> list:
     headers = tuple()
 
     try:
-        logger.debug(f"Checking CSRF for domain='{domain}'")
+        logger.debug("Checking CSRF for domain='%s'", domain)
         headers = csrf.determine(domain, dict())
     except network.exceptions as exception:
         logger.warning(f"Exception '{type(exception)}' during checking CSRF (fetch_peers,{__name__}) - EXIT!")
@@ -174,7 +174,7 @@ def fetch_blocks(domain: str) -> dict:
     headers = tuple()
 
     try:
-        logger.debug(f"Checking CSRF for domain='{domain}'")
+        logger.debug("Checking CSRF for domain='%s'", domain)
         headers = csrf.determine(domain, dict())
     except network.exceptions as exception:
         logger.warning(f"Exception '{type(exception)}' during checking CSRF (fetch_blocks,{__name__}) - EXIT!")
index 60f360e434362719e7c386de823c49906d5df32f..f43a798e0629e2db9e2b90dbed18443876927763 100644 (file)
@@ -52,7 +52,7 @@ def fetch_peers(domain: str) -> list:
     headers = tuple()
 
     try:
-        logger.debug(f"Checking CSRF for domain='{domain}'")
+        logger.debug("Checking CSRF for domain='%s'", domain)
         headers = csrf.determine(domain, dict())
     except network.exceptions as exception:
         logger.warning(f"Exception '{type(exception)}' during checking CSRF (fetch_peers,{__name__}) - EXIT!")