]> git.mxchange.org Git - fba.git/commitdiff
Continued:
authorRoland Häder <roland@mxchange.org>
Tue, 1 Jul 2025 23:28:00 +0000 (01:28 +0200)
committerRoland Häder <roland@mxchange.org>
Tue, 1 Jul 2025 23:28:00 +0000 (01:28 +0200)
- fixed some `Unnecessary "else" after "return"` messages

daemon.py
fba/commands.py
fba/networks/misskey.py

index 5ec02264ca80cb08787b36dc7b6604ed23cca876..0c73a22406754a707bfa99a1fb4045afac1eb89d 100755 (executable)
--- a/daemon.py
+++ b/daemon.py
 # You should have received a copy of the GNU Affero General Public License
 # along with this program.  If not, see <https://www.gnu.org/licenses/>.
 
-import re
-import validators
-
 from datetime import datetime
 from email.utils import format_datetime
 from pathlib import Path
 
+import re
+import validators
+
 import fastapi
 from fastapi import Request, HTTPException, Query
 from fastapi.responses import JSONResponse
index 710485d8daa2ba87a442f70abe68a7a8a4739430..6483a29ff720a1cf4e5cf4c05088c7d713df1c50 100644 (file)
@@ -128,9 +128,9 @@ def fetch_pixelfed_api(args: argparse.Namespace) -> int:
     if sources.is_recent(source_domain):
         logger.info("API from source_domain='%s' has recently being accessed - EXIT!", source_domain)
         return 1
-    else:
-        logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
-        sources.update(source_domain)
+
+    logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
+    sources.update(source_domain)
 
     try:
         logger.debug("Checking CSRF from source_domain='%s' ...", source_domain)
@@ -192,9 +192,9 @@ def fetch_bkali(args: argparse.Namespace) -> int:
     if sources.is_recent(source_domain):
         logger.info("API from source_domain='%s' has recently being accessed - EXIT!", source_domain)
         return 1
-    else:
-        logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
-        sources.update(source_domain)
+
+    logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
+    sources.update(source_domain)
 
     domains = []
     try:
@@ -503,9 +503,9 @@ def fetch_observer(args: argparse.Namespace) -> int:
     if sources.is_recent(source_domain):
         logger.info("API from source_domain='%s' has recently being accessed - EXIT!", source_domain)
         return 1
-    else:
-        logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
-        sources.update(source_domain)
+
+    logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
+    sources.update(source_domain)
 
     types = []
     if args.software is None:
@@ -640,9 +640,9 @@ def fetch_todon_wiki(args: argparse.Namespace) -> int:
     if sources.is_recent(source_domain):
         logger.info("API from source_domain='%s' has recently being accessed - EXIT!", source_domain)
         return 1
-    else:
-        logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
-        sources.update(source_domain)
+
+    logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
+    sources.update(source_domain)
 
     blocklist = {
         "silenced": [],
@@ -757,9 +757,9 @@ def fetch_cs(args: argparse.Namespace):
     if sources.is_recent(source_domain):
         logger.info("API from source_domain='%s' has recently being accessed - EXIT!", source_domain)
         return 1
-    else:
-        logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
-        sources.update(source_domain)
+
+    logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
+    sources.update(source_domain)
 
     logger.info("Fetching federation.md from source_domain='%s' ...", source_domain)
     raw = network.fetch_url(
@@ -930,9 +930,9 @@ def fetch_fbabot_atom(args: argparse.Namespace) -> int:
     if sources.is_recent(source_domain):
         logger.info("API from source_domain='%s' has recently being accessed - EXIT!", source_domain)
         return 1
-    else:
-        logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
-        sources.update(source_domain)
+
+    logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
+    sources.update(source_domain)
 
     domains = []
 
@@ -1123,9 +1123,9 @@ def fetch_oliphant(args: argparse.Namespace) -> int:
     if sources.is_recent(source_domain):
         logger.info("API from source_domain='%s' has recently being accessed - EXIT!", source_domain)
         return 1
-    else:
-        logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
-        sources.update(source_domain)
+
+    logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
+    sources.update(source_domain)
 
     # Base URL
     base_url = f"https://{source_domain}/oliphant/blocklists/raw/branch/main/blocklists"
@@ -1199,9 +1199,9 @@ def fetch_fedipact(args: argparse.Namespace) -> int:
     if sources.is_recent(source_domain):
         logger.info("API from source_domain='%s' has recently being accessed - EXIT!", source_domain)
         return 1
-    else:
-        logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
-        sources.update(source_domain)
+
+    logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
+    sources.update(source_domain)
 
     logger.info("Fetching / from source_domain='%s' ...", source_domain)
     response = network.fetch_url(
@@ -1258,9 +1258,9 @@ def fetch_joinmobilizon(args: argparse.Namespace) -> int:
     if sources.is_recent(source_domain):
         logger.info("API from source_domain='%s' has recently being accessed - EXIT!", source_domain)
         return 1
-    else:
-        logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
-        sources.update(source_domain)
+
+    logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
+    sources.update(source_domain)
 
     logger.info("Fetching instances from source_domain='%s' ...", source_domain)
     rows = network.fetch_json_rows(
@@ -1305,9 +1305,9 @@ def fetch_joinmisskey(args: argparse.Namespace) -> int:
     if sources.is_recent(source_domain):
         logger.info("API from source_domain='%s' has recently being accessed - EXIT!", source_domain)
         return 1
-    else:
-        logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
-        sources.update(source_domain)
+
+    logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
+    sources.update(source_domain)
 
     logger.info("Fetching /instances.json from source_domain='%s' ...", source_domain)
     rows = network.fetch_json_rows(
@@ -1502,9 +1502,9 @@ def fetch_fedilist(args: argparse.Namespace) -> int:
     if sources.is_recent(source_domain):
         logger.info("API from source_domain='%s' has recently being accessed - EXIT!", source_domain)
         return 1
-    else:
-        logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
-        sources.update(source_domain)
+
+    logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
+    sources.update(source_domain)
 
     url = f"https://{source_domain}/instance/csv?onion=not"
     if args.software not in [None, ""]:
@@ -1660,9 +1660,9 @@ def fetch_instances_social(args: argparse.Namespace) -> int:
     elif sources.is_recent(source_domain):
         logger.info("API from source_domain='%s' has recently being accessed - EXIT!", source_domain)
         return 2
-    else:
-        logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
-        sources.update(source_domain)
+
+    logger.debug("source_domain='%s' has not been recently used, marking ...", source_domain)
+    sources.update(source_domain)
 
     logger.info("Fetching list from source_domain='%s' ...", source_domain)
     rows = network.fetch_json_rows(
index 8070d4daafdc94e78c1c63cdf02af850ac767aec..4c4b99d135c58aefc63a90b2df008574295890e3 100644 (file)
@@ -259,8 +259,8 @@ def fetch_blocks(domain: str) -> list:
                         "block_level": "silenced",
                     })
                 else:
-                   logger.debug("domain='%s',blocked='%s' is not marked suspended - SKIPPED!", domain, blocked)
-                   continue
+                    logger.debug("domain='%s',blocked='%s' is not marked suspended - SKIPPED!", domain, blocked)
+                    continue
 
             logger.debug("count=%d", count)
             if count == 0: