]> git.mxchange.org Git - quix0rs-gnu-social.git/commitdiff
remove duplicate file URLs script
authorMikael Nordfeldth <mmn@hethane.se>
Wed, 15 Apr 2015 21:26:24 +0000 (23:26 +0200)
committerMikael Nordfeldth <mmn@hethane.se>
Wed, 15 Apr 2015 21:26:24 +0000 (23:26 +0200)
scripts/remove_duplicate_file_urls.php [new file with mode: 0755]

diff --git a/scripts/remove_duplicate_file_urls.php b/scripts/remove_duplicate_file_urls.php
new file mode 100755 (executable)
index 0000000..dd96599
--- /dev/null
@@ -0,0 +1,59 @@
+#!/usr/bin/env php
+<?php
+/*
+ * StatusNet - a distributed open-source microblogging tool
+ * Copyright (C) 2008, 2009, StatusNet, Inc.
+ *
+ * This program is free software: you can redistribute it and/or modify
+ * it under the terms of the GNU Affero General Public License as published by
+ * the Free Software Foundation, either version 3 of the License, or
+ * (at your option) any later version.
+ *
+ * This program is distributed in the hope that it will be useful,
+ * but WITHOUT ANY WARRANTY; without even the implied warranty of
+ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
+ * GNU Affero General Public License for more details.
+ *
+ * You should have received a copy of the GNU Affero General Public License
+ * along with this program.  If not, see <http://www.gnu.org/licenses/>.
+ */
+
+define('INSTALLDIR', realpath(dirname(__FILE__) . '/..'));
+
+$shortoptions = 'y';
+$longoptions = array('yes');
+
+$helptext = <<<END_OF_HELP
+remove_duplicate_file_urls.php [options]
+Remove duplicate URL entries in the file table because they for some reason were not unique.
+
+  -y --yes      do not wait for confirmation
+
+END_OF_HELP;
+
+require_once INSTALLDIR.'/scripts/commandline.inc';
+
+if (!have_option('y', 'yes')) {
+    print "About to remove duplicate file URL entries. Are you sure? [y/N] ";
+    $response = fgets(STDIN);
+    if (strtolower(trim($response)) != 'y') {
+        print "Aborting.\n";
+        exit(0);
+    }
+}
+
+$file = new File();
+$file->query('SELECT id, url, COUNT(*) AS c FROM file GROUP BY url HAVING c > 1');
+while ($file->fetch()) {
+    // We've got a URL that is duplicated in the file table
+    $dupfile = new File();
+    $dupfile->url = $file->url;
+    if ($dupfile->find(true)) {
+        // Leave one of the URLs in the database by using ->find(true)
+        // and only deleting starting with this fetch.
+        while($dupfile->fetch()) {
+            $dupfile->delete();
+        }
+    }
+}
+print "\nDONE.\n";