Fix some more links.
authorThomas Schwinge <thomas@schwinge.name>
Wed, 27 Oct 2010 12:49:21 +0000 (14:49 +0200)
committerThomas Schwinge <thomas@schwinge.name>
Wed, 27 Oct 2010 12:49:21 +0000 (14:49 +0200)
DynDNS (which was resolving *.schwinge.homeip.net to my server at home) stopped
supporting wildcard CNAMEs *.schwinge.homeip.net, so I now always have to use
the canonical name (or pay for getting this back, or go looking for another
service provider)...

doc/bugs/Error:_no_text_was_copied_in_this_page_--_missing_page_dependencies.mdwn
doc/bugs/cutpaste.pm:_missing_filter_call.mdwn
doc/forum/cutpaste.pm_not_only_file-local.mdwn
doc/plugins/contrib/texinfo.mdwn
doc/todo/__42__forward__42__ing_functionality_for_the_meta_plugin.mdwn
doc/todo/passwordauth:_sendmail_interface.mdwn
doc/users/tschwinge.mdwn

index 6996a9fbf432e809d305228738a09dd0b5f45e85..0082eed4d11d23c7184e6231798b894f0bb287c4 100644 (file)
@@ -2,7 +2,7 @@ That one has bitten me for some time; here is the minimal testcase.  There is
 also an equivalent (I suppose) problem when using another plugin, but I hope
 it's enough to track it down for this one.
 
 also an equivalent (I suppose) problem when using another plugin, but I hope
 it's enough to track it down for this one.
 
-    $ tar -xj < [bug-dep_order.tar.bz2](http://www.thomas.schwinge.homeip.net/tmp/bug-dep_order.tar.bz2)
+    $ tar -xj < [bug-dep_order.tar.bz2](http://schwinge.homeip.net/~thomas/tmp/bug-dep_order.tar.bz2)
     $ cd bug-dep_order/
     $ ./render_locally
     [...]
     $ cd bug-dep_order/
     $ ./render_locally
     [...]
index f7138cba0adabc1dea3461152a0bfa38938307d6..4b22fd06c18492d1ff70ac9bd6c8c226d7326315 100644 (file)
@@ -1,7 +1,7 @@
 Consider this:
 
 Consider this:
 
-    $ wget http://www.thomas.schwinge.homeip.net/tmp/cutpaste_filter.tar.bz2
-    $ wget http://www.thomas.schwinge.homeip.net/tmp/cutpaste_filter.patch
+    $ wget http://schwinge.homeip.net/~thomas/tmp/cutpaste_filter.tar.bz2
+    $ wget http://schwinge.homeip.net/~thomas/tmp/cutpaste_filter.patch
     
     $ tar -xj < cutpaste_filter.tar.bz2
     $ cd cutpaste_filter/
     
     $ tar -xj < cutpaste_filter.tar.bz2
     $ cd cutpaste_filter/
index 3563e3e0133bef9118054e65384ccffadb3626f1..0c5221cc9b832ba9933c8910522c8746e9324f4e 100644 (file)
@@ -3,7 +3,7 @@ has \[[!cut id=foo text="foo"]], and fileB does \[[!absorb pagenames=fileA]],
 and can then use \[[!paste id=foo]].
 
 Therefore, I've written an [*absorb* directive /
 and can then use \[[!paste id=foo]].
 
 Therefore, I've written an [*absorb* directive /
-plugin](http://www.thomas.schwinge.homeip.net/tmp/absorb.pm), which is meant to
+plugin](http://schwinge.homeip.net/~thomas/tmp/absorb.pm), which is meant to
 absorb pages in order to get hold of their *cut* and *copy* directives'
 contents.  This does work as expected.  But it also absorbs page fileA's *meta*
 values, like a *meta title*, etc.  How to avoid / solve this?
 absorb pages in order to get hold of their *cut* and *copy* directives'
 contents.  This does work as expected.  But it also absorbs page fileA's *meta*
 values, like a *meta title*, etc.  How to avoid / solve this?
index 595bd27aa7a270732a38142ede24c7e72dfeb566..a2769166de943bdcfe9072bd027e3c4868571a78 100644 (file)
@@ -8,7 +8,7 @@ This plugin is not neccessarily meant to enable people to write arbitrary
 wiki pages in the Texinfo format (even though that is possible, of course),
 but rather to ease collaboration on existing Texinfo documents.
 
 wiki pages in the Texinfo format (even though that is possible, of course),
 but rather to ease collaboration on existing Texinfo documents.
 
-The plugin is available at <http://www.schwinge.homeip.net/~thomas/tmp/texinfo.pm>.
+The plugin is available at <http://schwinge.homeip.net/~thomas/tmp/texinfo.pm>.
 
 It's very basic at the moment, but will be improved over time.
 
 
 It's very basic at the moment, but will be improved over time.
 
index 61b19d302f827007446d375b67912a5480252ad3..b3804d652d3ca87e84f155a402fc9c3919f47182 100644 (file)
@@ -4,7 +4,7 @@ to the [[`meta`_plugin|plugins/meta]].
 > [[done]], with some changes --[[Joey]]
 
 Find the most recent version at
 > [[done]], with some changes --[[Joey]]
 
 Find the most recent version at
-<http://www.schwinge.homeip.net/~thomas/tmp/meta_forward.patch>.
+<http://schwinge.homeip.net/~thomas/tmp/meta_forward.patch>.
 
 I can't use `scrub(...)`, as that will strip out the forwarding HTML command.
 How to deal with that?
 
 I can't use `scrub(...)`, as that will strip out the forwarding HTML command.
 How to deal with that?
index 29f28ca3246a853ee585beddc6348246c43b24fa..55624096403baeda26a9b3ea2c80b9d753616f1b 100644 (file)
@@ -35,7 +35,7 @@ in the ikiwiki source code, where emailing is done.
 OK, so I'll have a look at replacing all email handling with *Email::Send*.
 
 [[!tag patch]]
 OK, so I'll have a look at replacing all email handling with *Email::Send*.
 
 [[!tag patch]]
-*<http://www.thomas.schwinge.homeip.net/tmp/ikiwiki-sendmail.patch>*
+*<http://schwinge.homeip.net/~thomas/tmp/ikiwiki-sendmail.patch>*
 
 Remaining TODOs:
 
 
 Remaining TODOs:
 
index 9441053499ef4f9aac087a86d58be18f1bbe777e..435208a716ce50adc81886e275e99c9a766af0f3 100644 (file)
@@ -1,8 +1,8 @@
 [[!meta title="Thomas Schwinge"]]
 # Thomas Schwinge
 
 [[!meta title="Thomas Schwinge"]]
 # Thomas Schwinge
 
-<tschwinge@gnu.org>  
-<http://www.thomas.schwinge.homeip.net/>
+<thomas@schwinge.name>  
+<http://schwinge.homeip.net/~thomas/>
 
 I have converted the [GNU Hurd](http://www.gnu.org/software/hurd/)'s previous
 web pages and previous wiki pages to a *[[ikiwiki]]* system; and all that while
 
 I have converted the [GNU Hurd](http://www.gnu.org/software/hurd/)'s previous
 web pages and previous wiki pages to a *[[ikiwiki]]* system; and all that while