]> git.mxchange.org Git - fba.git/commitdiff
Continued:
authorRoland Häder <roland@mxchange.org>
Mon, 17 Jul 2023 13:47:09 +0000 (15:47 +0200)
committerRoland Häder <roland@mxchange.org>
Mon, 17 Jul 2023 13:47:09 +0000 (15:47 +0200)
- log returned empty lists separately from warning (mostly caught exception)

fba/http/federation.py
fba/networks/friendica.py
fba/networks/lemmy.py
fba/networks/mastodon.py
fba/networks/misskey.py
fba/networks/peertube.py
fba/networks/pleroma.py

index ae01d1ff03d803ab331edbc77e93c14c020b6842..062a486a430eaaa3d4a6872bee0a5eb106dc925c 100644 (file)
@@ -182,8 +182,10 @@ def fetch_peers(domain: str, software: str, origin: str) -> list:
         logger.debug("Checking CSRF for domain='%s'", domain)
         headers = csrf.determine(domain, dict())
     except network.exceptions as exception:
-        logger.warning("Exception '%s' during checking CSRF (fetch_peers,%s) - EXIT!", type(exception), __name__)
+        logger.warning("Exception '%s' during checking CSRF (fetch_peers,%s)", type(exception), __name__)
         instances.set_last_error(domain, exception)
+
+        logger.debug("Returning empty list ... - EXIT!")
         return list()
 
     paths = [
index b4cded19afdaea402933dc34483e07b60bc4ddcc..96c25088947353abd14b16be23098c31f3e6690d 100644 (file)
@@ -57,11 +57,13 @@ def fetch_blocks(domain: str) -> list:
     except network.exceptions as exception:
         logger.warning("Exception '%s' during fetching instances from domain='%s'", type(exception), domain)
         instances.set_last_error(domain, exception)
+
+        logger.debug("Returning empty list ... - EXIT!")
         return list()
 
     logger.debug("block_tag[%s]='%s'", type(block_tag), block_tag)
     if block_tag is None:
-        logger.debug("Instance has no block list: domain='%s'", domain)
+        logger.debug("Instance has no block list: domain='%s' - EXIT!", domain)
         return list()
 
     table = block_tag.find("table")
index 0b22f53399f83ba29502038c61112e28d856ba9d..42c4eb4f37b8e1182aa2a16c9941946f64e9846b 100644 (file)
@@ -48,8 +48,10 @@ def fetch_peers(domain: str, origin: str) -> list:
         logger.debug("Checking CSRF for domain='%s'", domain)
         headers = csrf.determine(domain, dict())
     except network.exceptions as exception:
-        logger.warning("Exception '%s' during checking CSRF (fetch_peers,%s) - EXIT!", type(exception), __name__)
+        logger.warning("Exception '%s' during checking CSRF (fetch_peers,%s)", type(exception), __name__)
         instances.set_last_error(domain, exception)
+
+        logger.debug("Returning empty list ... - EXIT!")
         return list()
 
     try:
@@ -325,7 +327,7 @@ def parse_script(doc: bs4.BeautifulSoup, only: str = None) -> list:
         try:
             parsed = json.loads(iso_data)
         except json.decoder.JSONDecodeError as exception:
-            logger.warning("Exception '%s' during parsing %d Bytes: '%s'", type(exception), len(iso_data), str(exception))
+            logger.warning("Exception '%s' during parsing %d Bytes: '%s' - EXIT!", type(exception), len(iso_data), str(exception))
             return list()
 
         logger.debug("parsed[%s]()=%d", type(parsed), len(parsed))
index 1e6a20b52f142e27d5dc208c02d06fa6506cbd44..368117661d7042e0ce181d89f1ec5c1741c4cb24 100644 (file)
@@ -145,8 +145,10 @@ def fetch_blocks(domain: str, nodeinfo_url: str) -> list:
         logger.debug("Checking CSRF for domain='%s'", domain)
         headers = csrf.determine(domain, dict())
     except network.exceptions as exception:
-        logger.warning("Exception '%s' during checking CSRF (fetch_blocks,%s) - EXIT!", type(exception), __name__)
+        logger.warning("Exception '%s' during checking CSRF (fetch_blocks,%s)", type(exception), __name__)
         instances.set_last_error(domain, exception)
+
+        logger.debug("Returning empty list ... - EXIT!")
         return list()
 
     try:
index 35eff0b79c52cb0115bedc6f24532b4ddee15b78..ec35833e1599f20bd859ae31bdb1ddf0d50ddeb5 100644 (file)
@@ -48,8 +48,10 @@ def fetch_peers(domain: str) -> list:
         logger.debug("Checking CSRF for domain='%s'", domain)
         headers = csrf.determine(domain, dict())
     except network.exceptions as exception:
-        logger.warning("Exception '%s' during checking CSRF (fetch_peers,%s) - EXIT!", type(exception), __name__)
+        logger.warning("Exception '%s' during checking CSRF (fetch_peers,%s)", type(exception), __name__)
         instances.set_last_error(domain, exception)
+
+        logger.debug("Returning empty list ... - EXIT!")
         return list()
 
     # iterating through all "suspended" (follow-only in its terminology)
@@ -134,8 +136,10 @@ def fetch_blocks(domain: str) -> list:
         logger.debug("Checking CSRF for domain='%s'", domain)
         headers = csrf.determine(domain, dict())
     except network.exceptions as exception:
-        logger.warning("Exception '%s' during checking CSRF (fetch_blocks,%s) - EXIT!", type(exception), __name__)
+        logger.warning("Exception '%s' during checking CSRF (fetch_blocks,%s)", type(exception), __name__)
         instances.set_last_error(domain, exception)
+
+        logger.debug("Returning empty list ... - EXIT!")
         return list()
 
     blocklist = list()
index 7dc41cb31c4a092c0b83229462ff018c16b787d7..951e263abf691fdb90f103f9581eb6febbcfb626 100644 (file)
@@ -43,8 +43,10 @@ def fetch_peers(domain: str) -> list:
         logger.debug("Checking CSRF for domain='%s'", domain)
         headers = csrf.determine(domain, dict())
     except network.exceptions as exception:
-        logger.warning("Exception '%s' during checking CSRF (fetch_peers,%s) - EXIT!", type(exception), __name__)
+        logger.warning("Exception '%s' during checking CSRF (fetch_peers,%s)", type(exception), __name__)
         instances.set_last_error(domain, exception)
+
+        logger.debug("Returning empty list ... - EXIT!")
         return list()
 
     for mode in ["followers", "following"]:
index e49473f010367874103b0fdb30d35c06608e31ca..fbe03dac65ef55dfec2d025402e2541440b668d7 100644 (file)
@@ -66,8 +66,10 @@ def fetch_blocks(domain: str, nodeinfo_url: str) -> list:
         rows = federation.fetch_nodeinfo(domain, nodeinfo_url)
 
         if "error_message" in rows:
-            logger.warning("Error message '%s' during fetching nodeinfo for domain='%s',nodeinfo_url='%s' - EXIT!", rows["error_message"], domain, nodeinfo_url)
+            logger.warning("Error message '%s' during fetching nodeinfo for domain='%s',nodeinfo_url='%s'", rows["error_message"], domain, nodeinfo_url)
             instances.set_last_error(domain, rows)
+
+            logger.debug("Returning empty list ... - EXIT!")
             return list()
         elif "exception" in rows:
             logger.warning("Exception '%s' during fetching nodeinfo for domain='%s',nodeinfo_url='%s' - EXIT!", type(rows["exception"]), domain, nodeinfo_url)
@@ -75,18 +77,19 @@ def fetch_blocks(domain: str, nodeinfo_url: str) -> list:
         elif "json" in rows:
             logger.debug("rows[json] found for domain='%s',nodeinfo_url='%s'", domain, nodeinfo_url)
             rows = rows["json"]
+
     except network.exceptions as exception:
         logger.warning("Exception '%s' during fetching nodeinfo from domain='%s'", type(exception), domain)
         instances.set_last_error(domain, exception)
 
     if rows is None:
-        logger.warning("Could not fetch nodeinfo from domain='%s'", domain)
+        logger.warning("Could not fetch nodeinfo from domain='%s' - EXIT!", domain)
         return list()
     elif "metadata" not in rows:
-        logger.warning("rows()=%d does not have key 'metadata', domain='%s'", len(rows), domain)
+        logger.warning("rows()=%d does not have key 'metadata', domain='%s' - EXIT!", len(rows), domain)
         return list()
     elif "federation" not in rows["metadata"]:
-        logger.warning("rows()=%d does not have key 'federation', domain='%s'", len(rows["metadata"]), domain)
+        logger.warning("rows()=%d does not have key 'federation', domain='%s' - EXIT!", len(rows["metadata"]), domain)
         return list()
 
     data = rows["metadata"]["federation"]