]> git.mxchange.org Git - fba.git/commitdiff
Continued:
authorRoland Häder <roland@mxchange.org>
Mon, 26 Jun 2023 19:26:56 +0000 (21:26 +0200)
committerRoland Häder <roland@mxchange.org>
Mon, 26 Jun 2023 19:51:08 +0000 (21:51 +0200)
- fixed error messages, missed adding the actual variables being logged
- logged count of updated fields
- log header (mostly bs4.element.Tag)

fba/commands.py
fba/http/federation.py
fba/models/instances.py
fba/networks/lemmy.py
fba/networks/mastodon.py
fba/networks/pleroma.py
fba/utils.py

index ed180bcb5eea632ed824403ca1863a89aec0fac0..9334cfbc7cb8db673087c1e4a780b840cfaccaff 100644 (file)
@@ -161,7 +161,7 @@ def fetch_bkali(args: argparse.Namespace) -> int:
                 logger.warning("entry()=%d does not contain 'domain' - SKIPPED!", len(entry))
                 continue
             elif not utils.is_domain_wanted(entry["domain"]):
-                logger.debug("entry[domain]='%s' is not wanted - SKIPPED!")
+                logger.debug("entry[domain]='%s' is not wanted - SKIPPED!", entry["domain"])
                 continue
             elif instances.is_registered(entry["domain"]):
                 logger.debug("entry[domain]='%s' is already registered - SKIPPED!", entry["domain"])
@@ -404,7 +404,7 @@ def fetch_observer(args: argparse.Namespace) -> int:
     for software in types:
         logger.debug("software='%s' - BEFORE!", software)
         if args.software is not None and args.software != software:
-            logger.debug("args.software='%s' does not match software='%s' - SKIPPED!")
+            logger.debug("args.software='%s' does not match software='%s' - SKIPPED!", args.software, software)
             continue
 
         doc = None
index e203c164825b243fa16d2e41d59b613f244ea2f2..630b87b50221796cbd11f90bd8f374972cfb8f6b 100644 (file)
@@ -191,7 +191,7 @@ def fetch_peers(domain: str, software: str, origin: str) -> list:
             logger.debug("Querying API path='%s' was successful: domain='%s',data[json][%s]()=%d", path, domain, type(data['json']), len(data['json']))
             peers = data["json"]
 
-            logger.debug("Marking domain='%s' as successfully handled ...")
+            logger.debug("Marking domain='%s' as successfully handled ...", domain)
             instances.set_success(domain)
             break
 
@@ -308,7 +308,7 @@ def fetch_wellknown_nodeinfo(domain: str) -> dict:
     if "error_message" not in data:
         nodeinfo = data["json"]
 
-        logger.debug("Marking domain='%s' as successfully handled ...")
+        logger.debug("Marking domain='%s' as successfully handled ...", domain)
         instances.set_success(domain)
 
         logger.debug("Found entries: nodeinfo()=%d,domain='%s'", len(nodeinfo), domain)
@@ -345,10 +345,11 @@ def fetch_wellknown_nodeinfo(domain: str) -> dict:
                         instances.set_detection_mode(domain, "AUTO_DISCOVERY")
                         instances.set_nodeinfo_url(domain, link["href"])
 
-                        logger.debug("Marking domain='%s' as successfully handled ...")
+                        logger.debug("Marking domain='%s' as successfully handled ...", domain)
                         instances.set_success(domain)
                         break
                     else:
+                        logger.debug("Setting last error for domain='%s',data[]='%s'", domain, type(data))
                         instances.set_last_error(domain, data)
                 else:
                     logger.warning("Unknown 'rel' value: domain='%s',link[rel]='%s'", domain, link["rel"])
@@ -553,7 +554,7 @@ def add_peers(rows: dict) -> list:
                 logger.debug("peer is empty - SKIPPED")
                 continue
             elif isinstance(peer, dict) and "domain" in peer:
-                logger.debug("peer[domain]='%s'", peer['domain'])
+                logger.debug("peer[domain]='%s'", peer["domain"])
                 peer = tidyup.domain(peer["domain"])
             elif isinstance(peer, str):
                 logger.debug("peer='%s'", peer)
@@ -566,7 +567,7 @@ def add_peers(rows: dict) -> list:
                 logger.debug("peer='%s' is not wanted - SKIPPED!", peer)
                 continue
 
-            logger.debug("Adding peer='%s' ...", peer)
+            logger.debug("Appending peer='%s' ...", peer)
             peers.append(peer)
 
     logger.debug("peers()=%d - EXIT!", len(peers))
index d2555063131e14cee95062574667fd8361a233ad..a812a858fd8e9324bbde0680faa0a46dfc949fc2 100644 (file)
@@ -126,7 +126,7 @@ def update_data(domain: str):
     logger.debug("sql_string='%s',fields()=%d", sql_string, len(fields))
     sql_string = "UPDATE instances SET" + sql_string + " last_updated = ? WHERE domain = ? LIMIT 1"
 
-    logger.debug("Executing SQL: '%s'", sql_string)
+    logger.debug("Executing SQL: sql_string='%s',fields()=%d", sql_string, len(fields))
     database.cursor.execute(sql_string, fields)
 
     logger.debug("rowcount=%d", database.cursor.rowcount)
@@ -376,7 +376,7 @@ def set_total_peers(domain: str, peers: list):
     domain_helper.raise_on(domain)
 
     if not isinstance(peers, list):
-        raise ValueError(f"Parameter peers[]='{type(peers)}' is not 'list': '%s'")
+        raise ValueError(f"Parameter peers[]='{type(peers)}' is not 'list'")
 
     # Set timestamp
     _set_data("total_peers", domain, len(peers))
index 47afc1b5833d67abdbc1ecc414aaca4de4d10d16..946d0eb1ebc9a7f8dc45b6265fe601926fcb018b 100644 (file)
@@ -68,7 +68,7 @@ def fetch_peers(domain: str, origin: str) -> list:
             logger.debug("Found federated_instances for domain='%s'", domain)
             peers = peers + federation.add_peers(data["json"]["federated_instances"])
 
-            logger.debug("Marking domain='%s' as successfully handled ...")
+            logger.debug("Marking domain='%s' as successfully handled ...", domain)
             instances.set_success(domain)
 
         if len(peers) == 0:
@@ -242,7 +242,7 @@ def fetch_instances(domain: str, origin: str) -> list:
                     logger.debug("Appending peer='%s' ...", peer)
                     peers.append(peer)
 
-        logger.debug("Marking domain='%s' as successfully handled ...")
+        logger.debug("Marking domain='%s' as successfully handled ...", domain)
         instances.set_success(domain)
 
     except network.exceptions as exception:
index fcfbc6e4f659a839214dc079b982a8ee492f2f9f..ca33c10bc6632ba4af33e623d79ee2eb50344aac 100644 (file)
@@ -172,7 +172,7 @@ def fetch_blocks(domain: str, nodeinfo_url: str) -> list:
             # Getting blocklist
             rows = data["json"]
 
-            logger.debug("Marking domain='%s' as successfully handled ...")
+            logger.debug("Marking domain='%s' as successfully handled ...", domain)
             instances.set_success(domain)
 
         if len(rows) == 0:
@@ -199,7 +199,7 @@ def fetch_blocks(domain: str, nodeinfo_url: str) -> list:
                     "block_level": block["severity"]
                 })
         else:
-            logger.debug("domain='%s' has no block list")
+            logger.debug("domain='%s' has no block list", domain)
 
     except network.exceptions as exception:
         logger.warning("domain='%s',exception[%s]='%s'", domain, type(exception), str(exception))
index 34c1a516e995ccb9712f151c8f9ef39cd08ea952..64729f113ab56dd49a48f597214f94f71581fd9b 100644 (file)
@@ -366,6 +366,7 @@ def fetch_blocks_from_about(domain: str) -> dict:
         return list()
 
     for header in doc.find_all("h2"):
+        logger.debug("header[%s]='%s'", type(header), header)
         header_text = tidyup.reason(header.text)
 
         logger.debug("header_text='%s' - BEFORE!", header_text)
index bbbf3b4441f825246bd9f0c34bbe75beec0720ce..441932f7234fc91db67c539c1263b0a28c2ba156 100644 (file)
@@ -81,7 +81,7 @@ def process_domain(domain: str, blocker: str, command: str) -> bool:
     elif command == "":
         raise ValueError("Parameter 'command' is empty")
 
-    logger.debug("domain='%s' - BEFORE!")
+    logger.debug("domain='%s' - BEFORE!", domain)
     domain = deobfuscate_domain(domain, blocker)
 
     logger.debug("domain='%s' - DEOBFUSCATED!", domain)
@@ -105,9 +105,9 @@ def process_domain(domain: str, blocker: str, command: str) -> bool:
         logger.warning("Exception '%s' during fetching instances (%s) from domain='%s'", type(exception), command, domain)
         instances.set_last_error(domain, exception)
 
-    logger.debug("Checking if domain='%s' has pending updates ...")
+    logger.debug("Checking if domain='%s' has pending updates ...", domain)
     if instances.has_pending(domain):
-        logger.debug("Flushing updates for domain='%s' ...")
+        logger.debug("Flushing updates for domain='%s' ...", domain)
         instances.update_data(domain)
 
     logger.debug("processed='%s' - EXIT!", processed)
@@ -134,7 +134,7 @@ def find_domains(tags: bs4.element.ResultSet, search: str) -> list:
             domain = tidyup.domain(tag.find("em").contents[0])
 
         if not is_domain_wanted(domain):
-            logger.debug("domain='%s' is not wanted - SKIPPED!")
+            logger.debug("domain='%s' is not wanted - SKIPPED!", domain)
             continue
 
         logger.debug("Appending domain='%s'", domain)