Merge branch 'master' of git://git.ikiwiki.info
authorAmitai Schlair <schmonz-web-ikiwiki@schmonz.com>
Tue, 31 Jan 2012 01:56:35 +0000 (19:56 -0600)
committerAmitai Schlair <schmonz-web-ikiwiki@schmonz.com>
Tue, 31 Jan 2012 01:56:35 +0000 (19:56 -0600)
33 files changed:
.gitignore
Bundle/IkiWiki.pm
IkiWiki.pm
IkiWiki/Plugin/calendar.pm
IkiWiki/Plugin/comments.pm
IkiWiki/Plugin/cvs.pm
IkiWiki/Plugin/prettydate.pm
IkiWiki/Setup/Standard.pm
IkiWiki/Setup/Yaml.pm
Makefile.PL
debian/changelog
debian/control
doc/bugs/Encoding_problem_in_calendar_plugin.mdwn [new file with mode: 0644]
doc/examples/blog/posts/Discussion.mdwn [deleted file]
doc/forum.mdwn
doc/forum/Encoding_problem_in_french_with_ikiwiki-calendar.mdwn [new file with mode: 0644]
doc/forum/How_to_change_registration_page/comment_1_43758a232e4360561bc84f710862ff40._comment [new file with mode: 0644]
doc/forum/OpenID_not_working___47___where_to_define_wiki__39__s_ID__63__/comment_2_14a1b269be6dbcc9b2068d3e18b55711._comment [new file with mode: 0644]
doc/forum/TMPL__95__VAR_IS__95__ADMIN/comment_8_054ff10998857bbb69d15ff17e6e9756._comment [deleted file]
doc/forum/two_new_contrib_plugins:_newpage__44___jssearchfield.mdwn [new file with mode: 0644]
doc/ikiwiki/directive/meta.mdwn
doc/ikiwikiusers.mdwn
doc/plugins/contrib/ikiwiki/directive/jssearchfield.mdwn [new file with mode: 0644]
doc/plugins/contrib/jssearchfield.mdwn [new file with mode: 0644]
doc/plugins/contrib/newpage/discussion.mdwn [new file with mode: 0644]
doc/plugins/wmd/discussion.mdwn
doc/rcs/cvs/discussion.mdwn
doc/shortcuts.mdwn
doc/todo/multi-thread_ikiwiki.mdwn
doc/todo/rewrite_ikiwiki_in_haskell.mdwn
doc/todo/rewrite_ikiwiki_in_haskell/discussion.mdwn
ikiwiki.in
t/cvs.t

index da2f4eb463b83ba0bd24ade50e8513d00ee7a455..fe1c3d441cc362d12390c70d8e3c9266f1ac5021 100644 (file)
@@ -19,4 +19,3 @@ po/underlays/directives/ikiwiki/directive/*.mdwn
 po/underlays_copy_stamp
 underlays/locale
 /t/tmp/
-doc/bugs/Pages_with_non-ascii_characters_like_*
index a0bd60e46abdf9425b0f01b1ab7dee3af3c73ebe..0059362507117ed9ae9dc92ea38ac1a312b4c06f 100644 (file)
@@ -28,7 +28,7 @@ CGI::Session
 Mail::Sendmail
 CGI
 Data::Dumper
-YAML
+YAML::XS
 JSON
 RPC::XML
 
index bc56501dab4f733ca34adbb4e88dcce66e6c102e..0a788f35bd69411e4ee536903fd8acc7a8580452 100644 (file)
@@ -20,7 +20,7 @@ use Exporter q{import};
 our @EXPORT = qw(hook debug error htmlpage template template_depends
        deptype add_depends pagespec_match pagespec_match_list bestlink
        htmllink readfile writefile pagetype srcfile pagename
-       displaytime will_render gettext ngettext urlto targetpage
+       displaytime strftime_utf8 will_render gettext ngettext urlto targetpage
        add_underlay pagetitle titlepage linkpage newpagefile
        inject add_link add_autofile
        %config %links %pagestate %wikistate %renderedfiles
@@ -1148,9 +1148,19 @@ sub formattime ($;$) {
                $format=$config{timeformat};
        }
 
+       return strftime_utf8($format, localtime($time));
+}
+
+my $strftime_encoding;
+sub strftime_utf8 {
        # strftime doesn't know about encodings, so make sure
-       # its output is properly treated as utf8
-       return decode_utf8(POSIX::strftime($format, localtime($time)));
+       # its output is properly treated as utf8.
+       # Note that this does not handle utf-8 in the format string.
+       $strftime_encoding = POSIX::setlocale(&POSIX::LC_TIME) =~ m#\.([^@]+)#
+               unless defined $strftime_encoding;
+       $strftime_encoding
+               ? Encode::decode($strftime_encoding, POSIX::strftime(@_))
+               : POSIX::strftime(@_);
 }
 
 sub date_3339 ($) {
index c7d2b7c01d8943f26e34e43231cc4ee26e0b6847..fc497b3c7351ea2151bfb14092568dbb687c3eb2 100644 (file)
@@ -22,7 +22,6 @@ use warnings;
 use strict;
 use IkiWiki 3.00;
 use Time::Local;
-use POSIX ();
 
 my $time=time;
 my @now=localtime($time);
@@ -123,10 +122,10 @@ sub format_month (@) {
        }
 
        # Find out month names for this, next, and previous months
-       my $monthabbrev=POSIX::strftime("%b", @monthstart);
-       my $monthname=POSIX::strftime("%B", @monthstart);
-       my $pmonthname=POSIX::strftime("%B", localtime(timelocal(0,0,0,1,$pmonth-1,$pyear-1900)));
-       my $nmonthname=POSIX::strftime("%B", localtime(timelocal(0,0,0,1,$nmonth-1,$nyear-1900)));
+       my $monthabbrev=strftime_utf8("%b", @monthstart);
+       my $monthname=strftime_utf8("%B", @monthstart);
+       my $pmonthname=strftime_utf8("%B", localtime(timelocal(0,0,0,1,$pmonth-1,$pyear-1900)));
+       my $nmonthname=strftime_utf8("%B", localtime(timelocal(0,0,0,1,$nmonth-1,$nyear-1900)));
 
        my $archivebase = 'archives';
        $archivebase = $config{archivebase} if defined $config{archivebase};
@@ -182,7 +181,7 @@ EOF
        my %dowabbr;
        for my $dow ($week_start_day..$week_start_day+6) {
                my @day=localtime(timelocal(0,0,0,$start_day++,$params{month}-1,$params{year}-1900));
-               my $downame = POSIX::strftime("%A", @day);
+               my $downame = strftime_utf8("%A", @day);
                my $dowabbr = substr($downame, 0, 1);
                $downame{$dow % 7}=$downame;
                $dowabbr{$dow % 7}=$dowabbr;
@@ -329,8 +328,8 @@ EOF
        for (my $month = 1; $month <= 12; $month++) {
                my @day=localtime(timelocal(0,0,0,15,$month-1,$params{year}-1900));
                my $murl;
-               my $monthname = POSIX::strftime("%B", @day);
-               my $monthabbr = POSIX::strftime("%b", @day);
+               my $monthname = strftime_utf8("%B", @day);
+               my $monthabbr = strftime_utf8("%b", @day);
                $calendar.=qq{\t<tr>\n}  if ($month % $params{months_per_row} == 1);
                my $tag;
                my $mtag=sprintf("%02d", $month);
index 3ad2a0e13a2a51ffce1301e020687b4b0c6b36d3..91a482ed6660059ed3a77f30b5236dbd891303a8 100644 (file)
@@ -9,7 +9,6 @@ use warnings;
 use strict;
 use IkiWiki 3.00;
 use Encode;
-use POSIX qw(strftime);
 
 use constant PREVIEW => "Preview";
 use constant POST_COMMENT => "Post comment";
@@ -460,7 +459,7 @@ sub editcomment ($$) {
        }
        $content .= " subject=\"$subject\"\n";
 
-       $content .= " date=\"" . decode_utf8(strftime('%Y-%m-%dT%H:%M:%SZ', gmtime)) . "\"\n";
+       $content .= " date=\"" . strftime_utf8('%Y-%m-%dT%H:%M:%SZ', gmtime) . "\"\n";
 
        my $editcontent = $form->field('editcontent');
        $editcontent="" if ! defined $editcontent;
index 71566d212ba71ea3b8c2296ffeb46c0101bea92d..0a6cbfaf6358f7a53014260f71c69ae5820641dc 100644 (file)
@@ -35,10 +35,14 @@ use IkiWiki;
 
 use File::chdir;
 
+
+# GENERAL PLUGIN API CALLS
+
 sub import {
-       hook(type => "genwrapper", id => "cvs", call => \&genwrapper);
        hook(type => "checkconfig", id => "cvs", call => \&checkconfig);
        hook(type => "getsetup", id => "cvs", call => \&getsetup);
+       hook(type => "genwrapper", id => "cvs", call => \&genwrapper);
+
        hook(type => "rcs", id => "rcs_update", call => \&rcs_update);
        hook(type => "rcs", id => "rcs_prepedit", call => \&rcs_prepedit);
        hook(type => "rcs", id => "rcs_commit", call => \&rcs_commit);
@@ -52,17 +56,6 @@ sub import {
        hook(type => "rcs", id => "rcs_getmtime", call => \&rcs_getmtime);
 }
 
-sub genwrapper () {
-       return <<EOF;
-       {
-               int j;
-               for (j = 1; j < argc; j++)
-                       if (strstr(argv[j], "New directory") != NULL)
-                               exit(0);
-       }
-EOF
-}
-
 sub checkconfig () {
        if (! defined $config{cvspath}) {
                $config{cvspath}="ikiwiki";
@@ -132,39 +125,22 @@ sub getsetup () {
                },
 }
 
-sub cvs_info ($$) {
-       my $field=shift;
-       my $file=shift;
-
-       local $CWD = $config{srcdir};
-
-       my $info=`cvs status $file`;
-       my ($ret)=$info=~/^\s*$field:\s*(\S+)/m;
-       return $ret;
+sub genwrapper () {
+       return <<EOF;
+       {
+               int j;
+               for (j = 1; j < argc; j++)
+                       if (strstr(argv[j], "New directory") != NULL)
+                               exit(0);
+       }
+EOF
 }
 
-sub cvs_runcvs(@) {
-       my @cmd = @_;
-       unshift @cmd, 'cvs', '-Q';
-
-       local $CWD = $config{srcdir};
-
-       open(my $savedout, ">&STDOUT");
-       open(STDOUT, ">", "/dev/null");
-       my $ret = system(@cmd);
-       open(STDOUT, ">&", $savedout);
 
-       return ($ret == 0) ? 1 : 0;
-}
-
-sub cvs_is_controlling {
-       my $dir=shift;
-       $dir=$config{srcdir} unless defined($dir);
-       return (-d "$dir/CVS") ? 1 : 0;
-}
+# VCS PLUGIN API CALLS
 
 sub rcs_update () {
-       return unless cvs_is_controlling;
+       return unless cvs_is_controlling();
        cvs_runcvs('update', '-dP');
 }
 
@@ -175,7 +151,7 @@ sub rcs_prepedit ($) {
        # The file is relative to the srcdir.
        my $file=shift;
 
-       return unless cvs_is_controlling;
+       return unless cvs_is_controlling();
 
        # For cvs, return the revision of the file when
        # editing begins.
@@ -183,31 +159,13 @@ sub rcs_prepedit ($) {
        return defined $rev ? $rev : "";
 }
 
-sub commitmessage (@) {
-       my %params=@_;
-       
-       if (defined $params{session}) {
-               if (defined $params{session}->param("name")) {
-                       return "web commit by ".
-                               $params{session}->param("name").
-                               (length $params{message} ? ": $params{message}" : "");
-               }
-               elsif (defined $params{session}->remote_addr()) {
-                       return "web commit from ".
-                               $params{session}->remote_addr().
-                               (length $params{message} ? ": $params{message}" : "");
-               }
-       }
-       return $params{message};
-}
-
 sub rcs_commit (@) {
        # Tries to commit the page; returns undef on _success_ and
        # a version of the page with the rcs's conflict markers on failure.
        # The file is relative to the srcdir.
        my %params=@_;
 
-       return unless cvs_is_controlling;
+       return unless cvs_is_controlling();
 
        # Check to see if the page has been changed by someone
        # else since rcs_prepedit was called.
@@ -250,9 +208,6 @@ sub rcs_add ($) {
        my $parent=IkiWiki::dirname($file);
        my @files_to_add = ($file);
 
-       eval q{use File::MimeInfo};
-       error($@) if $@;
-
        until ((length($parent) == 0) || cvs_is_controlling("$config{srcdir}/$parent")){
                push @files_to_add, $parent;
                $parent = IkiWiki::dirname($parent);
@@ -261,15 +216,8 @@ sub rcs_add ($) {
        while ($file = pop @files_to_add) {
                if (@files_to_add == 0) {
                        # file
-                       my $filemime = File::MimeInfo::default($file);
-                       if (defined($filemime) && $filemime eq 'text/plain') {
-                               cvs_runcvs('add', $file) ||
-                                       warn("cvs add $file failed\n");
-                       }
-                       else {
-                               cvs_runcvs('add', '-kb', $file) ||
-                                       warn("cvs add binary $file failed\n");
-                       }
+                       cvs_runcvs('add', cvs_keyword_subst_args($file)) ||
+                               warn("cvs add $file failed\n");
                }
                else {
                        # directory
@@ -283,7 +231,7 @@ sub rcs_remove ($) {
        # filename is relative to the root of the srcdir
        my $file=shift;
 
-       return unless cvs_is_controlling;
+       return unless cvs_is_controlling();
 
        cvs_runcvs('rm', '-f', $file) ||
                warn("cvs rm $file failed\n");
@@ -293,7 +241,7 @@ sub rcs_rename ($$) {
        # filenames relative to the root of the srcdir
        my ($src, $dest)=@_;
 
-       return unless cvs_is_controlling;
+       return unless cvs_is_controlling();
 
        local $CWD = $config{srcdir};
 
@@ -309,7 +257,7 @@ sub rcs_recentchanges ($) {
        my $num = shift;
        my @ret;
 
-       return unless cvs_is_controlling;
+       return unless cvs_is_controlling();
 
        eval q{use Date::Parse};
        error($@) if $@;
@@ -493,4 +441,74 @@ sub rcs_getmtime ($) {
        error "rcs_getmtime is not implemented for cvs\n"; # TODO
 }
 
+
+# INTERNAL SUPPORT ROUTINES
+
+sub commitmessage (@) {
+       my %params=@_;
+
+       if (defined $params{session}) {
+               if (defined $params{session}->param("name")) {
+                       return "web commit by ".
+                               $params{session}->param("name").
+                               (length $params{message} ? ": $params{message}" : "");
+               }
+               elsif (defined $params{session}->remote_addr()) {
+                       return "web commit from ".
+                               $params{session}->remote_addr().
+                               (length $params{message} ? ": $params{message}" : "");
+               }
+       }
+       return $params{message};
+}
+
+sub cvs_info ($$) {
+       my $field=shift;
+       my $file=shift;
+
+       local $CWD = $config{srcdir};
+
+       my $info=`cvs status $file`;
+       my ($ret)=$info=~/^\s*$field:\s*(\S+)/m;
+       return $ret;
+}
+
+sub cvs_is_controlling {
+       my $dir=shift;
+       $dir=$config{srcdir} unless defined($dir);
+       return (-d "$dir/CVS") ? 1 : 0;
+}
+
+sub cvs_keyword_subst_args ($) {
+       my $file = shift;
+
+       local $CWD = $config{srcdir};
+
+       eval q{use File::MimeInfo};
+       error($@) if $@;
+       my $filemime = File::MimeInfo::default($file);
+       # if (-T $file) {
+
+       if (defined($filemime) && $filemime eq 'text/plain') {
+               return ($file);
+       }
+       else {
+               return ('-kb', $file);
+       }
+}
+
+sub cvs_runcvs(@) {
+       my @cmd = @_;
+       unshift @cmd, 'cvs', '-Q';
+
+       local $CWD = $config{srcdir};
+
+       open(my $savedout, ">&STDOUT");
+       open(STDOUT, ">", "/dev/null");
+       my $ret = system(@cmd);
+       open(STDOUT, ">&", $savedout);
+
+       return ($ret == 0) ? 1 : 0;
+}
+
 1
index 82d8a3df3eeef1c0b4a45c532774637a2a3e5209..b0931cb5533b36bcab5cbb3afa514ef75c51f132 100644 (file)
@@ -118,10 +118,10 @@ sub IkiWiki::formattime ($;$) {
                }
        }
 
-       $t=~s{\%A-}{my @yest=@t; $yest[6]--; strftime("%A", \@yest)}eg;
+       $t=~s{\%A-}{my @yest=@t; $yest[6]--; strftime_utf8("%A", \@yest)}eg;
 
        $format=~s/\%X/$t/g;
-       return strftime($format, \@t);
+       return strftime_utf8($format, \@t);
 }
 
 1
index c8506930475a0c28ead9e613e7cde64d982b6db9..ea7d763bbd26435c9dfb9462e1930f4cf7920b7a 100644 (file)
@@ -14,7 +14,10 @@ sub import {
 sub gendump ($@) {
        my $class=shift;
 
-       "#!/usr/bin/perl",
+       my $thisperl = eval q{use Config; $Config{perlpath}};
+       error($@) if $@;
+
+       "#!$thisperl",
        "#",
        (map { "# $_" } @_),
        "use IkiWiki::Setup::Standard {",
index 6da93bb644bb5f639dd6871b492782cfa059345d..6bf20f480d523ad5144dc6d1b61ec03d1f0118b5 100644 (file)
@@ -11,10 +11,8 @@ sub loaddump ($$) {
        my $class=shift;
        my $content=shift;
 
-       eval q{use YAML::Any};
-       eval q{use YAML} if $@;
+       eval q{use YAML::XS};
        die $@ if $@;
-       $YAML::Syck::ImplicitUnicode=1;
        IkiWiki::Setup::merge(Load(encode_utf8($content)));
 }
 
@@ -35,12 +33,12 @@ sub dumpline ($$$$) {
        my $type=shift;
        my $prefix=shift;
        
-       eval q{use YAML::Old};
-       eval q{use YAML} if $@;
+       eval q{use YAML::XS};
        die $@ if $@;
-       $YAML::UseHeader=0;
+       $YAML::XS::QuoteNumericStrings=0;
 
-       my $dump=Dump({$key => $value});
+       my $dump=decode_utf8(Dump({$key => $value}));
+       $dump=~s/^---\n//; # yaml header, we don't want
        chomp $dump;
        if (length $prefix) {
                $dump=join("\n", map { $prefix.$_ } split(/\n/, $dump));
index b19636c60c90ad5fbc0db4bbb0b7c0ba0904fa5d..69ba5e5ef6260130fb9a2fd2c4514ae86d409dd3 100755 (executable)
@@ -19,11 +19,14 @@ SED?=sed
 
 # Additional configurable path variables.
 W3M_CGI_BIN?=$(PREFIX)/lib/w3m/cgi-bin
+SYSCONFDIR?=/etc/ikiwiki
+MANDIR?=$(PREFIX)/share/man
 
 tflag=$(shell if [ -n "$$NOTAINT" ] && [ "$$NOTAINT" != 1 ]; then printf -- "-T"; fi)
 extramodules=$(shell if [ "$$PROFILE" = 1 ]; then printf -- "-d:NYTProf"; fi)
 outprogs=ikiwiki.out ikiwiki-transition.out ikiwiki-calendar.out
 scripts=ikiwiki-update-wikilist ikiwiki-makerepo
+sysconfdir_scripts=ikiwiki-mass-rebuild ikiwiki-update-wikilist
 
 PROBABLE_INST_LIB=$(shell \\
        if [ "$(INSTALLDIRS)" = "perl" ]; then \\
@@ -42,7 +45,7 @@ PROBABLE_INST_LIB=$(shell \\
 ikiwiki.setup:
        HOME=/home/me $(PERL) -Iblib/lib $(extramodules) $(tflag) ikiwiki.in -dumpsetup ikiwiki.setup
 
-extra_build: $(outprogs) ikiwiki.setup docwiki
+extra_build: $(outprogs) ikiwiki.setup docwiki sysconfdir
        ./mdwn2man ikiwiki 1 doc/usage.mdwn > ikiwiki.man
        ./mdwn2man ikiwiki-mass-rebuild 8 doc/ikiwiki-mass-rebuild.mdwn > ikiwiki-mass-rebuild.man
        ./mdwn2man ikiwiki-makerepo 1 doc/ikiwiki-makerepo.mdwn > ikiwiki-makerepo.man
@@ -50,12 +53,15 @@ extra_build: $(outprogs) ikiwiki.setup docwiki
        ./mdwn2man ikiwiki-update-wikilist 1 doc/ikiwiki-update-wikilist.mdwn > ikiwiki-update-wikilist.man
        ./mdwn2man ikiwiki-calendar 1 doc/ikiwiki-calendar.mdwn > ikiwiki-calendar.man
        $(MAKE) -C po
-       $(SED) -i.bkp "s/Version:.*/Version: $(VER)/" ikiwiki.spec
+       $(PERL) -pi.bkp -e "s/Version:.*/Version: $(VER)/" ikiwiki.spec
        rm -f ikiwiki.spec.bkp
        
 docwiki:
        $(PERL) -Iblib/lib $(extramodules) $(tflag) ikiwiki.in -setup docwiki.setup -refresh
 
+sysconfdir:
+       $(PERL) -pi -e "s|/etc/ikiwiki|$(SYSCONFDIR)|g" $(sysconfdir_scripts)
+       
 extra_clean:
        $(PERL) -Iblib/lib $(extramodules) $(tflag) ikiwiki.in -setup docwiki.setup -clean
        rm -f *.man $(outprogs) ikiwiki.setup plugins/*.pyc
@@ -70,7 +76,7 @@ underlay_install:
        for dir in `cd underlays && $(FIND) . -follow -type d`; do \
                install -d $(DESTDIR)$(PREFIX)/share/ikiwiki/$$dir; \
                for file in `$(FIND) underlays/$$dir -follow -maxdepth 1 -type f -not -name \\*.full.js -not -name \\*.full.css`; do \
-                       cp -aL $$file $(DESTDIR)$(PREFIX)/share/ikiwiki/$$dir 2>/dev/null || \
+                       cp -pRL $$file $(DESTDIR)$(PREFIX)/share/ikiwiki/$$dir 2>/dev/null || \
                        install -m 644 $$file $(DESTDIR)$(PREFIX)/share/ikiwiki/$$dir; \
                done; \
        done
@@ -79,7 +85,7 @@ underlay_install:
        install -d $(DESTDIR)$(PREFIX)/share/ikiwiki/directives/ikiwiki/directive
        for file in doc/ikiwiki/directive/*; do \
                if [ -f "$$file" ]; then \
-                       cp -aL $$file $(DESTDIR)$(PREFIX)/share/ikiwiki/directives/ikiwiki/directive 2>/dev/null || \
+                       cp -pRL $$file $(DESTDIR)$(PREFIX)/share/ikiwiki/directives/ikiwiki/directive 2>/dev/null || \
                        install -m 644 $$file $(DESTDIR)$(PREFIX)/share/ikiwiki/directives/ikiwiki/directive; \
                fi \
        done
@@ -94,7 +100,7 @@ underlay_install:
                        elif echo "$$file" | grep -q base.css; then \
                                :; \
                        elif [ -f "$$file" ]; then \
-                               cp -aL $$file $(DESTDIR)$(PREFIX)/share/ikiwiki/$$file 2>/dev/null || \
+                               cp -pRL $$file $(DESTDIR)$(PREFIX)/share/ikiwiki/$$file 2>/dev/null || \
                                install -m 644 $$file $(DESTDIR)$(PREFIX)/share/ikiwiki/$$file; \
                        fi \
                done; \
@@ -106,7 +112,7 @@ extra_install: underlay_install
                install -d $(DESTDIR)$(PREFIX)/share/ikiwiki/examples/$$dir; \
        done
        for file in `cd doc/examples; $(FIND) . -type f ! -regex '.*discussion.*'`; do \
-               cp -aL doc/examples/$$file $(DESTDIR)$(PREFIX)/share/ikiwiki/examples/$$file 2>/dev/null || \
+               cp -pRL doc/examples/$$file $(DESTDIR)$(PREFIX)/share/ikiwiki/examples/$$file 2>/dev/null || \
                install -m 644 doc/examples/$$file $(DESTDIR)$(PREFIX)/share/ikiwiki/examples/$$file; \
        done
 
@@ -125,15 +131,15 @@ extra_install: underlay_install
                install -m 755 $$file $(DESTDIR)$(PREFIX)/lib/ikiwiki/plugins; \
        done
 
-       install -d $(DESTDIR)$(PREFIX)/share/man/man1
-       install -m 644 ikiwiki.man $(DESTDIR)$(PREFIX)/share/man/man1/ikiwiki.1
-       install -m 644 ikiwiki-makerepo.man $(DESTDIR)$(PREFIX)/share/man/man1/ikiwiki-makerepo.1
-       install -m 644 ikiwiki-transition.man $(DESTDIR)$(PREFIX)/share/man/man1/ikiwiki-transition.1
-       install -m 644 ikiwiki-update-wikilist.man $(DESTDIR)$(PREFIX)/share/man/man1/ikiwiki-update-wikilist.1
-       install -m 644 ikiwiki-calendar.man $(DESTDIR)$(PREFIX)/share/man/man1/ikiwiki-calendar.1
+       install -d $(DESTDIR)$(MANDIR)/man1
+       install -m 644 ikiwiki.man $(DESTDIR)$(MANDIR)/man1/ikiwiki.1
+       install -m 644 ikiwiki-makerepo.man $(DESTDIR)$(MANDIR)/man1/ikiwiki-makerepo.1
+       install -m 644 ikiwiki-transition.man $(DESTDIR)$(MANDIR)/man1/ikiwiki-transition.1
+       install -m 644 ikiwiki-update-wikilist.man $(DESTDIR)$(MANDIR)/man1/ikiwiki-update-wikilist.1
+       install -m 644 ikiwiki-calendar.man $(DESTDIR)$(MANDIR)/man1/ikiwiki-calendar.1
        
-       install -d $(DESTDIR)$(PREFIX)/share/man/man8
-       install -m 644 ikiwiki-mass-rebuild.man $(DESTDIR)$(PREFIX)/share/man/man8/ikiwiki-mass-rebuild.8
+       install -d $(DESTDIR)$(MANDIR)/man8
+       install -m 644 ikiwiki-mass-rebuild.man $(DESTDIR)$(MANDIR)/man8/ikiwiki-mass-rebuild.8
        
        install -d $(DESTDIR)$(PREFIX)/sbin
        install ikiwiki-mass-rebuild $(DESTDIR)$(PREFIX)/sbin
@@ -150,10 +156,10 @@ extra_install: underlay_install
        
        # These might fail if a regular user is installing into a home
        # directory.
-       -install -d $(DESTDIR)/etc/ikiwiki
-       -install -m 0644 wikilist $(DESTDIR)/etc/ikiwiki
-       -install -m 0644 auto.setup $(DESTDIR)/etc/ikiwiki
-       -install -m 0644 auto-blog.setup $(DESTDIR)/etc/ikiwiki
+       -install -d $(DESTDIR)$(SYSCONFDIR)
+       -install -m 0644 wikilist $(DESTDIR)$(SYSCONFDIR)
+       -install -m 0644 auto.setup $(DESTDIR)$(SYSCONFDIR)
+       -install -m 0644 auto-blog.setup $(DESTDIR)$(SYSCONFDIR)
 
 # The git/hg plugins want to chdir; so does Devel::Cover. Skip those tests
 # to stop them hurting each other.
index d014abd50e0c4a6cf18dcf8d9fe3c998e0b08b9d..d196b49b9c72510b0034a45ecba31e93c0a601b9 100644 (file)
@@ -2,6 +2,13 @@ ikiwiki (3.20120116) UNRELEASED; urgency=low
 
   * mdwn: Added nodiscount setting, which can be used to avoid using the
     markdown discount engine, when maximum compatability is needed.
+  * Switch to YAML::XS to work around insanity in YAML::Mo. Closes: #657533
+  * cvs: Ensure text files are added in non-binary mode. (Amitai Schlair)
+  * cvs: Various cleanups and testing. (Amitai Schlair)
+  * calendar, prettydate: Fix strftime encoding bug.
+  * shortcuts: Fixed a broken shortcut to wikipedia (accidentially
+    made into a shortcut to wikiMedia).
+  * Various portability improvements. (Amitai Schlair)
 
  -- Joey Hess <joeyh@debian.org>  Mon, 16 Jan 2012 13:41:14 -0400
 
index 922fe3c7772d2538377c45b9d6751a195181ab3f..9403dfb442fdd5a45d5aeaebaad21fb87e9497f6 100644 (file)
@@ -7,7 +7,7 @@ Build-Depends-Indep: dpkg-dev (>= 1.9.0), libxml-simple-perl,
   libtimedate-perl, libhtml-template-perl,
   libhtml-scrubber-perl, wdg-html-validator,
   libhtml-parser-perl, liburi-perl (>= 1.36), perlmagick, po4a (>= 0.34),
-  libfile-chdir-perl, libyaml-perl, python-support
+  libfile-chdir-perl, libyaml-libyaml-perl, python-support
 Maintainer: Joey Hess <joeyh@debian.org>
 Uploaders: Josh Triplett <josh@freedesktop.org>
 Standards-Version: 3.9.2
@@ -19,7 +19,7 @@ Architecture: all
 Depends: ${misc:Depends}, ${perl:Depends}, ${python:Depends}, 
   libtext-markdown-discount-perl,
   libhtml-scrubber-perl, libhtml-template-perl,
-  libhtml-parser-perl, liburi-perl (>= 1.36), libyaml-perl, libjson-perl
+  libhtml-parser-perl, liburi-perl (>= 1.36), libyaml-libyaml-perl, libjson-perl
 Recommends: gcc | c-compiler, 
   libc6-dev | libc-dev,
   git (>= 1:1.7) | git-core (>= 1:1.5.0) | subversion | tla | bzr (>= 0.91) | mercurial | monotone (>= 0.38) | darcs,
diff --git a/doc/bugs/Encoding_problem_in_calendar_plugin.mdwn b/doc/bugs/Encoding_problem_in_calendar_plugin.mdwn
new file mode 100644 (file)
index 0000000..80e9f2c
--- /dev/null
@@ -0,0 +1,73 @@
+Hello,
+
+I studied this [[guy's problem|forum/Encoding_problem_in_french_with_ikiwiki-calendar]] and I propose here a (dirty) hack to correct it.
+
+Bug summary: when using the [[calendar plugin|plugins/calendar]] in French (`LANG=fr_FR.UTF-8`), "Décembre" (French for "December") is rendered as "Décembre".
+
+I managed to track this problem down to an encoding problem of `POSIX::strftime` in `Ikiwiki/Plugin/calendar.pm`. I used [[this guy's solution|http://www.perlmonks.org/?node_id=857018]] to solve the problem (the diff is printed below).
+
+The problem is that I do not know Perl, encoding is one of the thing I would be happy not to dive into, and it is the first time I contribute to Ikiwiki: I copied and made a few changes to the code I found without understanding it. So I am not sure that my code is neat, or works in every situation. Feel free to (help me to) improve it!
+
+Cheers,    
+Louis
+
+> Yes, this seems basically right. I've applied a modified version of this.
+> [[done]]
+> --[[Joey]] 
+
+
+    diff --git a/IkiWiki/Plugin/calendar.pm b/IkiWiki/Plugin/calendar.pm
+    index c7d2b7c..1345939 100644
+    --- a/IkiWiki/Plugin/calendar.pm
+    +++ b/IkiWiki/Plugin/calendar.pm
+    @@ -22,7 +22,14 @@ use warnings;
+     use strict;
+     use IkiWiki 3.00;
+     use Time::Local;
+    -use POSIX ();
+    +
+    +use POSIX qw/setlocale LC_TIME strftime/;
+    +use Encode;
+    +my ($strftime_encoding)= setlocale(LC_TIME)=~m#\.([^@]+)#;
+    +sub strftime_utf8 {
+    +# try to return an utf8 value from strftime
+    +  $strftime_encoding ? Encode::decode($strftime_encoding, &strftime) : &strftime;
+    +}
+     
+     my $time=time;
+     my @now=localtime($time);
+    @@ -123,10 +130,10 @@ sub format_month (@) {
+       }
+     
+       # Find out month names for this, next, and previous months
+    -  my $monthabbrev=POSIX::strftime("%b", @monthstart);
+    -  my $monthname=POSIX::strftime("%B", @monthstart);
+    -  my $pmonthname=POSIX::strftime("%B", localtime(timelocal(0,0,0,1,$pmonth-1,$pyear-1900)));
+    -  my $nmonthname=POSIX::strftime("%B", localtime(timelocal(0,0,0,1,$nmonth-1,$nyear-1900)));
+    +  my $monthabbrev=strftime_utf8("%b", @monthstart);
+    +  my $monthname=strftime_utf8("%B", @monthstart);
+    +  my $pmonthname=strftime_utf8("%B", localtime(timelocal(0,0,0,1,$pmonth-1,$pyear-1900)));
+    +  my $nmonthname=strftime_utf8("%B", localtime(timelocal(0,0,0,1,$nmonth-1,$nyear-1900)));
+     
+       my $archivebase = 'archives';
+       $archivebase = $config{archivebase} if defined $config{archivebase};
+    @@ -182,7 +189,7 @@ EOF
+       my %dowabbr;
+       for my $dow ($week_start_day..$week_start_day+6) {
+               my @day=localtime(timelocal(0,0,0,$start_day++,$params{month}-1,$params{year}-1900));
+    -          my $downame = POSIX::strftime("%A", @day);
+    +          my $downame = strftime_utf8("%A", @day);
+               my $dowabbr = substr($downame, 0, 1);
+               $downame{$dow % 7}=$downame;
+               $dowabbr{$dow % 7}=$dowabbr;
+    @@ -329,8 +336,8 @@ EOF
+       for (my $month = 1; $month <= 12; $month++) {
+               my @day=localtime(timelocal(0,0,0,15,$month-1,$params{year}-1900));
+               my $murl;
+    -          my $monthname = POSIX::strftime("%B", @day);
+    -          my $monthabbr = POSIX::strftime("%b", @day);
+    +          my $monthname = strftime_utf8("%B", @day);
+    +          my $monthabbr = strftime_utf8("%b", @day);
+               $calendar.=qq{\t<tr>\n}  if ($month % $params{months_per_row} == 1);
+               my $tag;
+               my $mtag=sprintf("%02d", $month);
diff --git a/doc/examples/blog/posts/Discussion.mdwn b/doc/examples/blog/posts/Discussion.mdwn
deleted file mode 100644 (file)
index f04a955..0000000
+++ /dev/null
@@ -1 +0,0 @@
-foo bar.
index 19ca9ed0b26fee4d023b5022c2876d25c3c3ff93..62b62a401f370475e090807c3857e9a0c7566580 100644 (file)
@@ -4,6 +4,7 @@ page fitting enough. Users of ikiwiki can ask questions here.
 Note that for more formal bug reports or todo items, you can also edit the
 [[bugs]] and [[todo]] pages.
 
+
 ## Current topics ##
 
 [[!inline pages="forum/*  and !forum/discussion and !forum/*/*" 
diff --git a/doc/forum/Encoding_problem_in_french_with_ikiwiki-calendar.mdwn b/doc/forum/Encoding_problem_in_french_with_ikiwiki-calendar.mdwn
new file mode 100644 (file)
index 0000000..472412d
--- /dev/null
@@ -0,0 +1,20 @@
+Hi!
+
+I'm using the ikiwiki calendar plugin.
+
+My website is in french (locale fr_FR.UTF-8), and calendars that are generated by the plugin makes some encodi$
+
+I don't know how the plugin generate translation for dates, but I've seen that there is no ikiwiki translation$
+
+That's why I suppose (but I'm not sure) that it use date unix command to insert date into the html page, witho$
+
+Could I have forgotten some options to make it nice or not?
+
+Is someone could test it and verify if it works or not?
+
+Thanks.
+
+Zut
+
+> This was discussed in [[bugs/Encoding_problem_in_calendar_plugin]]
+> and is now fixed. --[[Joey]] 
diff --git a/doc/forum/How_to_change_registration_page/comment_1_43758a232e4360561bc84f710862ff40._comment b/doc/forum/How_to_change_registration_page/comment_1_43758a232e4360561bc84f710862ff40._comment
new file mode 100644 (file)
index 0000000..5edd993
--- /dev/null
@@ -0,0 +1,14 @@
+[[!comment format=mdwn
+ username="http://joey.kitenet.net/"
+ nickname="joey"
+ subject="comment 1"
+ date="2012-01-30T19:30:20Z"
+ content="""
+Sure.. You're looking for the file `IkiWiki/Plugin/passwordauth.pm`
+
+This line in particular is the text that gets modified and displayed to the user.
+
+<pre>
+                                        name => \"account_creation_password\",
+</pre>
+"""]]
diff --git a/doc/forum/OpenID_not_working___47___where_to_define_wiki__39__s_ID__63__/comment_2_14a1b269be6dbcc9b2068d3e18b55711._comment b/doc/forum/OpenID_not_working___47___where_to_define_wiki__39__s_ID__63__/comment_2_14a1b269be6dbcc9b2068d3e18b55711._comment
new file mode 100644 (file)
index 0000000..3078a14
--- /dev/null
@@ -0,0 +1,10 @@
+[[!comment format=mdwn
+ username="http://joey.kitenet.net/"
+ nickname="joey"
+ subject="comment 2"
+ date="2012-01-30T19:34:00Z"
+ content="""
+Yes, good spotting, [[ikiwiki/directive/meta]] had a doubled quote in the openid example.
+
+Otherwise, that example will work. You don't need anything installed on your server to add openid delegation to a page.
+"""]]
diff --git a/doc/forum/TMPL__95__VAR_IS__95__ADMIN/comment_8_054ff10998857bbb69d15ff17e6e9756._comment b/doc/forum/TMPL__95__VAR_IS__95__ADMIN/comment_8_054ff10998857bbb69d15ff17e6e9756._comment
deleted file mode 100644 (file)
index ee0c46f..0000000
+++ /dev/null
@@ -1,12 +0,0 @@
-[[!comment format=mdwn
- username="https://me.yahoo.com/a/dh6LXMw6hZydhHOqgWKiORWXspNyeW9n1nk-#9ce8d"
- nickname="shobo"
- subject="comment 8"
- date="2011-12-16T13:21:57Z"
- content="""
-URLs containing /ikiwiki.cgi/ are dynamically-generated pages; everything else is static.
-
-How is this possible? Where can I find more about this?<a href=\"http://yourbookmaker.co.uk/bet365\"></a>
-
-Shobo, Junior Software Developer
-"""]]
diff --git a/doc/forum/two_new_contrib_plugins:_newpage__44___jssearchfield.mdwn b/doc/forum/two_new_contrib_plugins:_newpage__44___jssearchfield.mdwn
new file mode 100644 (file)
index 0000000..8293b09
--- /dev/null
@@ -0,0 +1,20 @@
+Just thought people might like to know I've added a couple more plugins to contrib.
+
+[[plugins/contrib/newpage]]: This plugin adds a new action to the "ACTIONS" section of a page; a button labelled "create" and an input field next to it.
+
+The common way of creating a new page is to edit a different page and add a link to the new page. However, there are some situations where that is a nuisance; for example, where pages are listed using a map directive. The newpage plugin enables one to simply type the name of the new page, click the "create" button, and one is then taken to the standard IkiWiki create-page form.
+
+[[plugins/contrib/jssearchfield]]: This plugin provides the [[plugins/contrib/ikiwiki/directive/jssearchfield]] directive.  This
+enables one to search the structured data ("field" values) of multiple pages.
+This uses Javascript for the searching, which means that the entire thing
+is self-contained and does not require a server or CGI access, unlike
+the default IkiWiki search. This means that it can be used in places such
+as ebook readers.  The disadvantage is that because Javascript runs
+in the browser, the searching is only as fast as the machine your browser
+is running on.
+
+Because this uses Javascript, the htmlscrubber must be turned off for any page where the directive is used.
+
+This plugin depends on the [[!iki plugins/contrib/field]] plugin.
+
+--[[KathrynAndersen]]
index a7e86a7edc3c1ed016a57c77ce371e0036234d7b..72cfc6f569ee434f74e66f82d1759309786c28c6 100644 (file)
@@ -109,7 +109,7 @@ Supported fields:
 
        \[[!meta openid="http://joeyh.myopenid.com/"
        server="http://www.myopenid.com/server"
-       xrds-location="http://www.myopenid.com/xrds?username=joeyh.myopenid.com""]]
+       xrds-location="http://www.myopenid.com/xrds?username=joeyh.myopenid.com"]]
 
 * link
 
index 1fc45529886bbc376b4cd7982c3a2b2151d2efbf..0b16618bf7128de12eb4a170f9c4483163914a54 100644 (file)
@@ -164,8 +164,7 @@ Personal sites and blogs
 * [Richard "RichiH" Hartmann](http://richardhartmann.de/blog) - I thought I had added myself a year ago. Oups :)
 * [Jonas Smedegaard](http://dr.jones.dk/) multilingual "classic" website w/ blog
 * [Siri Reiter](http://sirireiter.dk/) portfolio website with a blog (in danish)
-* [L'Altro Wiki](http://laltromondo.dynalias.net/~iki/) Tutorials, reviews, miscellaneus articles in English and Italian, from the IRC network syrolnet.org
-* [STUPiD](http://lhzhang.com/)
+* [L'Altro Wiki](http://laltromondo.dynalias.net/~iki/) Tutorials, reviews, miscellaneus articles in English and Italian.
 * gregoa's [p.r. - political rants](http://info.comodo.priv.at/pr/)
 * [Michael Hammer](http://www.michael-hammer.at/)
 * [Richardson Family Wiki](http://the4richardsons.com) A wiki, blog or some such nonsense for the family home page or something or other... I will eventually move the rest of my sites to ikiwiki. The source of the site is in git.
diff --git a/doc/plugins/contrib/ikiwiki/directive/jssearchfield.mdwn b/doc/plugins/contrib/ikiwiki/directive/jssearchfield.mdwn
new file mode 100644 (file)
index 0000000..5d33890
--- /dev/null
@@ -0,0 +1,42 @@
+The `jssearchfield` directive is supplied by the [[!iki plugins/contrib/jssearchfield desc=jssearchfield]] plugin.
+
+This enables one to search the structured data ("field" values) of
+multiple pages.  A search form is constructed, and the searching is
+done with Javascript, which means that the entire thing is self-contained.
+This depends on the [[!iki plugins/contrib/field]] plugin.
+
+The pages to search are selected by a PageSpec given by the "pages"
+parameter.
+The fields to search are given by the "fields" parameter.  By default,
+the field name is given, and the user can type the search parameter for
+that field into a text input field.
+
+## OPTIONS
+
+**pages**: A PageSpec to determine the pages to search through.
+
+**fields**: The fields to put into the search form, and to display
+in the results.
+
+**tagfields**: Display the given fields as a list of tags that can
+be selected from, rather than having a text input field.  Every distinct
+value of that field will be listed, so it is best used for things with
+short values, like "Author" rather than long ones like "Description".
+Note that "tagfields" must be a subset of "fields".
+
+**sort**: A SortSpec to determine how the matching pages should be sorted; this is the "default" sort order that the results will be displayed in.
+The search form also gives the option of "random" sort, which will
+display the search results in random order.
+
+## SEARCHING
+
+The search form that is created by this directive contains the following:
+
+* for each search field, a label, plus either a text input field, or a list of checkboxes with values next to them if the field is also a tagfield.  Note that the lists of checkboxes are initially hidden; one must click on the triangle next to the label to display them.
+* a "sort" toggle. One can select either "default" or "random".
+* A "Search!" button, to trigger the search if needed (see below)
+* A "Reset" button, which will clear all the values.
+
+The searching is dynamic.  As soon as a value is changed, either by tabbing out of the text field, or by selecting or de-selecting a checkbox, the search
+results are updated.  Furthermore, for tagfields, the tagfield lists
+themselves are updated to reflect the current search results.
diff --git a/doc/plugins/contrib/jssearchfield.mdwn b/doc/plugins/contrib/jssearchfield.mdwn
new file mode 100644 (file)
index 0000000..2d41ee2
--- /dev/null
@@ -0,0 +1,35 @@
+[[!template id=plugin name=jssearchfield author="[[rubykat]]"]]
+[[!tag type/search]]
+IkiWiki::Plugin::jssearchfield - Create a search form to search page field data.
+
+This plugin provides the [[ikiwiki/directive/jssearchfield]] directive.  This
+enables one to search the structured data ("field" values) of multiple pages.
+This uses Javascript for the searching, which means that the entire thing
+is self-contained and does not require a server or CGI access, unlike
+the default IkiWiki search. This means that it can be used in places such
+as ebook readers.  The disadvantage is that because Javascript runs
+in the browser, the searching is only as fast as the machine your browser
+is running on.
+
+Because this uses Javascript, the htmlscrubber must be turned off for any page where the directive is used.
+
+This plugin depends on the [[!iki plugins/contrib/field]] plugin.
+
+## Activate the plugin
+
+    # activate the plugin
+    add_plugins => [qw{goodstuff field jssearchfield ....}],
+
+    # disable scrubbing for search page
+    htmlscrubber_skip => 'mysearchpage',
+
+## PREREQUISITES
+
+    IkiWiki
+    IkiWiki::Plugin::field
+    HTML::Template
+
+## DOWNLOAD
+
+* browse at GitHub: <http://github.com/rubykat/ikiplugins/blob/master/IkiWiki/Plugin/jssearchfield.pm>
+* git repo at git://github.com/rubykat/ikiplugins.git
diff --git a/doc/plugins/contrib/newpage/discussion.mdwn b/doc/plugins/contrib/newpage/discussion.mdwn
new file mode 100644 (file)
index 0000000..fb18646
--- /dev/null
@@ -0,0 +1,10 @@
+How is this better than creating an inline with `rootpage` set, 
+which creates a similar new page form? I sometimes make the inline match
+nothing, while still creating pages, in the odd cases where I have a map 
+or such displaying the pages. --[[Joey]]
+
+> I wanted something that would automatically be available on every page, but only when editing was enabled.
+> One of the sites I maintain as webmaster (<http://www.constrainttec.com/>) has a two-stage publication process.  The "working" site is on an internal server, where it is set up as a wiki that authorized users in the company can edit.  When they're satisfied with the changes they've made, the "working" site gets pushed (with git) to the "production" site, which is on a different server.  The ikiwiki setup for the production site has editing completely disabled, because it is the site which is exposed to the outside world.
+> For that site, I want all sign that it's a wiki to be hidden.  Therefore using an inline directive would be unsuitable.
+
+> --[[KathrynAndersen]]
index 42af97ec3d39dc507642247efb3c4e94e7d7e2a1..b57ef40571253a1e4af997bdbfd64eb5fd861a3e 100644 (file)
@@ -59,3 +59,15 @@ copy [...]
 > It does not, however, have a markdown to html converter -- for 
 > previewing it has to talk to the server with AJAX.
 > --[[Joey]] 
+
+>> I've got pagedown working on my personal site (simon.kisikew.org) but I'm not sure how
+>> I can inject the relevant &lt;div&gt;'s in the right place. They need to go **above**
+>> the editing &lt;textarea&gt; . (Too bad about the licensing, it's rather nice.)
+>> I had to do one minor change to it to have it inject itself into the page properly,
+>> and that was to make this change in `Markdown.Editor.js`:
+>>
+>> `this.input = doc.getElementById("editcontent" + postfix);`
+>>
+>> on line 247.  --[[simonraven]]
+
+>>> Well, I re-figured out that I needed a TMPL_VAR FOO in the template(s). --[[simonraven]]
index 2df2c1317016a51aa6147a614f732c77295f5483..e10892e7d5645c93c62bc768446c85f442c113ab 100644 (file)
@@ -159,3 +159,14 @@ branch harder for you to pull.
 Before I go writing a whole swack of test cases, could you merge
 my latest? Through at least ad0e56cdcaaf76bc68d1b5c56e6845307b51c44a
 there should be no functional change. --[[schmonz]]
+
+Never mind, I was able to convince myself (by cloning `origin`
+afresh and merging from `schmonz/cvs`). The history is a little
+gross but the before-and-after diff looks right.
+
+Bugs found and fixed so far:
+
+* Stop treating text files as binary (`-kb`) on `rcs_add()`
+   (ac8eab29e8394aca4c0b23a6687ec947ea1ac869)
+
+> Merged to current head. --[[Joey]] 
index ecd73f52c38a2c612b07ec2ab76e9c1d27e235e6..07210f9bfe88092cdcfd5a09c66f37923653cbcb 100644 (file)
@@ -15,7 +15,7 @@ This page controls what shortcut links the wiki supports.
 * [[!shortcut name=archive url="http://web.archive.org/*/%S"]]
 * [[!shortcut name=gmap url="https://maps.google.com/maps?q=%s"]]
 * [[!shortcut name=gmsg url="https://groups.google.com/groups?selm=%s"]]
-* [[!shortcut name=wikipedia url="https://en.wikimedia.org/wiki/%s"]]
+* [[!shortcut name=wikipedia url="https://en.wikipedia.org/wiki/%s"]]
 * [[!shortcut name=wikitravel url="https://wikitravel.org/en/%s"]]
 * [[!shortcut name=wiktionary url="https://en.wiktionary.org/wiki/%s"]]
 * [[!shortcut name=debbug url="http://bugs.debian.org/%S" desc="Debian bug #%s"]]
index 1494fed7a606fc4984d5ff279dfebabd46576d33..358185a22675ce25240f9aa2249133e9d261714c 100644 (file)
@@ -6,3 +6,84 @@ Lots of \[[!img ]] (~2200), lots of \[[!teximg ]] (~2700). A complete rebuild ta
 We could use a big machine, with plenty of CPUs. Could some multi-threading support be added to ikiwiki, by forking out all the external heavy  plugins (imagemagick, tex, ...) and/or by processing pages in parallel?
 
 Disclaimer: I know nothing of the Perl approach to parallel processing.
+
+> I agree that it would be lovely to be able to use multiple processors to speed up rebuilds on big sites (I have a big site myself), but, taking a quick look at what Perl threads entails, and taking into acount what I've seen of the code of IkiWiki, it would take a massive rewrite to make IkiWiki thread-safe - the API would have to be completely rewritten - and then more work again to introduce threading itself.  So my unofficial humble opinion is that it's unlikely to be done.
+> Which is a pity, and I hope I'm mistaken about it.
+> --[[KathrynAndersen]]
+
+> > I have much less experience with the internals of Ikiwiki, much
+> > less Multi-threading perl, but I agree that to make Ikiwiki thread
+> > safe and to make the modifications to really take advantage of the
+> > threads is probably beyond the realm of reasonable
+> > expectations. Having said that, I wonder if there aren't ways to
+> > make Ikiwiki perform better for these big cases where the only
+> > option is to wait for it to grind through everything. Something
+> > along the lines of doing all of the aggregation and dependency
+> > heavy stuff early on, and then doing all of the page rendering
+> > stuff at the end quasi-asynchronously? Or am I way off in the deep
+> > end.
+> >
+> > From a practical perspective, it seems like these massive rebuild
+> > situations represent a really small subset of ikiwiki builds. Most
+> > sites are pretty small, and most sites need full rebuilds very
+> > very infrequently. In that scope, 10 minute rebuilds aren't that
+> > bad seeming. In terms of performance challenges, it's the one page
+> > with 3-5 dependency that takes 10 seconds (say) to rebuild that's
+> > a larger challenge for Ikiwiki as a whole. At the same time, I'd
+> > be willing to bet that performance benefits for these really big
+> > repositories for using fast disks (i.e. SSDs) could probably just
+> > about meet the benefit of most of the threading/async work.
+> >
+> > --[[tychoish]]
+
+>>> It's at this point that doing profiling for a particular site would come
+>>> in, because it would depend on the site content and how exactly IkiWiki is
+>>> being used as to what the performance bottlenecks would be.  For the
+>>> original poster, it would be image processing.  For me, it tends to be
+>>> PageSpecs, because I have a lot of maps and reports.
+
+>>> But I sincerely don't think that Disk I/O is the main bottleneck, not when
+>>> the original poster mentions CPU usage, and also in my experience, I see
+>>> IkiWiki chewing up 100% CPU usage one CPU, while the others remain idle.  I
+>>> haven't noticed slowdowns due to waiting for disk I/O, whether that be a
+>>> system with HD or SSD storage.
+
+>>> I agree that large sites are probably not the most common use-case, but it
+>>> can be a chicken-and-egg situation with large sites and complete rebuilds,
+>>> since it can often be the case with a large site that rebuilding based on
+>>> dependencies takes *longer* than rebuilding the site from scratch, simply
+>>> because there are so many pages that are interdependent.  It's not always
+>>> the number of pages itself, but how the site is being used.  If IkiWiki is
+>>> used with the absolute minimum number of page-dependencies - that is, no
+>>> maps, no sitemaps, no trails, no tags, no backlinks, no albums - then one
+>>> can have a very large number of pages without having performance problems.
+>>> But when you have a change in PageA affecting PageB which affects PageC,
+>>> PageD, PageE and PageF, then performance can drop off horribly.  And it's a
+>>> trade-off, because having features that interlink pages automatically is
+>>> really nifty ad useful - but they have a price.
+
+>>> I'm not really sure what the best solution is.  Me, I profile my IkiWiki builds and try to tweak performance for them... but there's only so much I can do.
+>>> --[[KathrynAndersen]]
+
+>>>> IMHO, the best way to get a multithreaded ikiwiki is to rewrite it
+>>>> in haskell, using as much pure code as possible. Many avenues
+>>>> then would open up to taking advantage of haskell's ability to
+>>>> parallize pure code.
+>>>>
+>>>> With that said, we already have some nice invariants that could be
+>>>> used to parallelize page builds. In particular, we know that
+>>>> page A never needs state built up while building page B, for any
+>>>> pages A and B that don't have a dependency relationship -- and ikiwiki
+>>>> tracks such dependency relationships, although not currently in a form
+>>>> that makes it very easy (or fast..) to pick out such groups of
+>>>> unrelated pages.
+>>>> 
+>>>> OTOH, there are problems.. building page A can result in changes to
+>>>> ikiwiki's state; building page B can result in other changes. All
+>>>> such changes would have to be made thread-safely. And would the
+>>>> resulting lock contention result in a program that ran any faster
+>>>> once parallelized?
+>>>> 
+>>>> Which is why [[rewrite_ikiwiki_in_haskell]], while pretty insane, is
+>>>> something I keep thinking about. If only I had a spare year..
+>>>> --[[Joey]]
index 48ed744b165c045aee15635de6465ea05f9ef648..e48765b0e14802bcef48b8dc33e7ce82607c569a 100644 (file)
@@ -62,8 +62,4 @@ Some other things to be scared about:
   a bunch of haskell libraries. OTOH, it might be possible to build a
   static binary at home and upload it, thus avoiding a messy installation
   procedure entirely.
-* I can barely code in haskell yet. I'm probably about 100x faster at
-  programming in perl. I need to get some more practical experience before
-  I´m fast and seasoned enough in haskell to attempt such a project.
-  (And so far, progress at learning has been slow and I have not managed
-  to write anything serious in haskell.) --[[Joey]] 
+  --[[Joey]] 
index 1edebe4e8f01556e4381515499647571de5afcce..b6495194a4ab736565acee8b3464ad508c04ae09 100644 (file)
@@ -12,3 +12,46 @@ Congratulations for demonstrating that April fools jokes can still be subtle
 >>> It doesn't really. I recently (re-)read about couchdb and thought that
 >>> what it was trying to do had some comparisons with the thinking going on
 >>> in [[todo/structured_page_data]]. -- [[Jon]]
+
+-----
+
+I'm torn about this idea, if it's actually serious.  I'm very comfortable
+programming in Perl, and have written quite a few modules for IkiWiki, and
+it would be a huge pain to have to start from scratch all over again. On
+the other hand, this could be a motivation for me to learn Haskell.  My
+only encounter with Haskell has been a brief time when I was using the
+Xmonad window manager, but it looks like an interesting language.
+Functional programming is cool.
+
+There are a lot of interesting plusses for Haskell you note (in the parent
+page), but it's true that the idea is horribly daunting (as [[Joey]] said
+"If only I had a spare year").  Is there any way that you could "start
+small"?  Because nothing will ever happen if the task is too daunting to
+even start.
+
+> This seems destined to remain a thought experiment unless something like
+> that can be done, or I get a serious case of second system disease.
+> 
+> I've considered doing things like using the external plugin interface
+> to run a separate haskell program, which would allow implementing
+> arbitrary plugins in haskell (starting with a pandoc plugin..),
+> and could perhaps grow to subsume the perl code. However, this would
+> stick us with the perl data structures, which are not a very good fit
+> for haskell. --[[Joey]]
+
+On further thought... perhaps it would be easier to fork or contribute to
+an existing Haskell-based wiki, such as <a
+href="http://jaspervdj.be/hakyll">Hakyll</a>?
+
+--[[KathrynAndersen]]
+
+> As far as I know there are no other wikis (haskell or otherwise)
+> that are wiki compilers. Since we know from experience that dealing
+> with static compilation turns out to be one of the trickiest parts of
+> ikiwiki, I'm doubtful about trying to bolt that into one. --[[Joey]] 
+
+>> Haykll isn't a wiki but it does do static compilation. The missing
+>> parts are: the web interface, the wiki link processing, and page
+>> dependency stuff. -- [[tychoish]]
+
+>>> (nods) Which is why I suggested it.  I'm not sure whether it would be easier to "bolt on" those things than static compilation, but it could be worth looking at, at least. -- [[KathrynAndersen]]
index adff1411e8aa715a192f3850a7aef59f4cd04f0b..e6b64f43949aba391a411c31b1cf57a0c8b56c2e 100755 (executable)
@@ -108,11 +108,9 @@ sub getconfig () {
                                if (! defined $var || ! defined $val) {
                                        die gettext("usage: --set-yaml var=value"), "\n";
                                }
-                               eval q{use YAML::Any};
-                               eval q{use YAML} if $@;
+                               eval q{use YAML::XS; use Encode};
                                die $@ if $@;
-                               eval q{$YAML::Syck::ImplicitUnicode=1};
-                               $config{$var}=Load($val."\n");
+                               $config{$var}=Load(encode_utf8($val)."\n");
                        },
                        "version" => sub {
                                print "ikiwiki version $IkiWiki::version\n";
diff --git a/t/cvs.t b/t/cvs.t
index 5ed377ed5e7234b369cc456d814e4ceefb51266c..1c20d7741343dd4ae668ff879909b024f4eb4d6d 100755 (executable)
--- a/t/cvs.t
+++ b/t/cvs.t
 #!/usr/bin/perl
 use warnings;
 use strict;
-my $dir;
-BEGIN {
-       $dir="/tmp/ikiwiki-test-cvs.$$";
-       my $cvs=`which cvs`;
-       chomp $cvs;
-       my $cvsps=`which cvsps`;
-       chomp $cvsps;
-       if (! -x $cvs || ! -x $cvsps) {
-               eval q{
-                       use Test::More skip_all => "cvs or cvsps not available"
-               }
-       }
-       if (! mkdir($dir)) {
-               die $@;
+use Test::More; my $total_tests = 40;
+use IkiWiki;
+
+my $default_test_methods = '^test_*';
+my @required_programs = qw(
+       cvs
+       cvsps
+);
+my @required_modules = qw(
+       File::chdir
+       File::MimeInfo
+       Date::Parse
+       File::Temp
+       File::ReadBackwards
+);
+my $dir = "/tmp/ikiwiki-test-cvs.$$";
+
+# TESTS FOR GENERAL META-BEHAVIOR
+
+sub test_web_comments {
+       # how much of the web-edit workflow are we actually testing?
+       # because we want to test comments:
+       # - when the first comment for page.mdwn is added, and page/ is
+       #   created to hold the comment, page/ isn't added to CVS control,
+       #   so the comment isn't either
+       # - side effect for moderated comments: after approval they
+       #   show up normally AND are still pending, too
+       # - comments.pm treats rcs_commit_staged() as returning conflicts?
+}
+
+sub test_chdir_magic {
+       # cvs.pm operations are always occurring inside $config{srcdir}
+       # other ikiwiki operations are occurring wherever, and are unaffected
+       # when are we bothering with "local $CWD" and when aren't we?
+}
+
+sub test_cvs_info {
+       # inspect "Repository revision" (used in code)
+       # inspect "Sticky Options" (used in tests to verify existence of "-kb")
+}
+
+sub test_cvs_run_cvs {
+       # extract the stdout-redirect thing
+       # - prove that it silences stdout
+       # - prove that stderr comes through just fine
+       # prove that when cvs exits nonzero (fail), function exits false
+       # prove that when cvs exits zero (success), function exits true
+       # always pass -f, just in case
+       # steal from git.pm: safe_git(), run_or_{die,cry,non}
+       # - open() instead of system()
+       # always call cvs_run_cvs(), don't ever run 'cvs' directly
+}
+
+sub test_cvs_run_cvsps {
+       # parameterize command like run_cvs()
+       # expose config vars for e.g. "--cvs-direct -z 30"
+       # always pass -x (unless proven otherwise)
+       # always pass -b HEAD (configurable like gitmaster_branch?)
+}
+
+sub test_cvs_parse_cvsps {
+       # extract method from rcs_recentchanges
+       # document expected changeset format
+       # document expected changeset delimiter
+       # try: cvsps -q -x -p && ls | sort -rn | head -100
+       # - benchmark against current impl (that uses File::ReadBackwards)
+}
+
+sub test_cvs_parse_log_accum {
+       # add new, preferred method for rcs_recentchanges to use
+       # teach log_accum to record commits (into transient?)
+       # script cvsps to bootstrap (or replace?) commit history
+       # teach ikiwiki-makerepo to set up log_accum and commit_prep
+       # why are NetBSD commit mails unreliable?
+       # - is it working for CVS commits and failing for web commits?
+}
+
+sub test_cvs_is_controlling {
+       # with no args:
+       # - if srcdir is in CVS, return true
+       # - else, return false
+       # with a dir arg:
+       # - if dir is in CVS, return true
+       # - else, return false
+       # with a file arg:
+       # - is there anything that wants the answer? if so, answer
+       # - else, die
+}
+
+
+# TESTS FOR GENERAL PLUGIN API CALLS
+
+sub test_checkconfig {
+       # undef cvspath, expect "ikiwiki"
+       # define cvspath normally, get it back
+       # define cvspath in a subdir, get it back?
+       # define cvspath with extra slashes, get sanitized version back
+       # - yoink test_extra_path_slashes
+       # undef cvs_wrapper, expect $config{wrappers} same size as before
+
+       my $initial_cvspath = $config{cvspath};
+       $config{cvspath} = "/ikiwiki//";
+       IkiWiki::checkconfig();
+       is(
+               $config{cvspath},
+               $initial_cvspath,
+               q{rcs_recentchanges assumes checkconfig has sanitized cvspath},
+       );
+}
+
+sub test_getsetup {
+       # anything worth testing?
+}
+
+sub test_genwrapper {
+       # testable directly? affects rcs_add, but are we exercising this?
+}
+
+
+# TESTS FOR VCS PLUGIN API CALLS
+
+sub test_rcs_update {
+       # can it assume we're under CVS control? or must it check?
+       # anything else worth testing?
+}
+
+sub test_rcs_prepedit {
+       # can it assume we're under CVS control? or must it check?
+       # for existing file, returns latest revision in repo
+       # - what's this used for? should it return latest revision in checkout?
+       # for new file, returns empty string
+}
+
+sub test_rcs_commit {
+       # can it assume we're under CVS control? or must it check?
+       # if someone else changed the page since rcs_prepedit was called:
+       # - try to merge into our working copy
+       # - if merge succeeds, proceed to commit
+       # - else, return page content with the conflict markers in it
+       # commit:
+       # - if success, return undef
+       # - else, revert + return content with the conflict markers in it
+       # git.pm receives "session" param -- useful here?
+       # web commits start with "web commit {by,from} "
+       # seeing File::chdir errors on commit?
+}
+
+sub test_rcs_commit_staged {
+       # if commit succeeds, return undef
+       # else, warn and return error message (really? or just non-undef?)
+}
+
+sub test_rcs_add {
+       my $message = "add a top-level ASCII (non-UTF-8) page via VCS API";
+       writefile('test0.mdwn', $config{srcdir}, "* some plain ASCII text");
+       IkiWiki::rcs_add("test0.mdwn");
+       IkiWiki::rcs_commit(
+               file => "test0.mdwn",
+               message => $message,
+               token => "moo",
+       );
+       is_newly_added("test0.mdwn");
+       is_in_keyword_substitution_mode("test0.mdwn", undef);
+       my @changes = IkiWiki::rcs_recentchanges(3);
+       is_total_number_of_changes(\@changes, 1);
+       is_most_recent_change(\@changes, "test0", $message);
+
+       $message = "add a top-level dir via VCS API";
+       my $dir1 = "test3";
+       can_mkdir($dir1);
+       IkiWiki::rcs_add($dir1);
+       # XXX test that the wrapper hangs here without our genwrapper()
+       # XXX test that the wrapper doesn't hang here with it
+       @changes = IkiWiki::rcs_recentchanges(3);
+       is_total_number_of_changes(\@changes, 1);       # despite the dir add
+       IkiWiki::rcs_commit(
+               file => $dir1,
+               message => $message,
+               token => "oom",
+       );
+       @changes = IkiWiki::rcs_recentchanges(3);
+       is_total_number_of_changes(\@changes, 1);       # dirs aren't tracked
+
+       $message = "add a non-ASCII (UTF-8) text file in an un-added dir";
+       my $dir2 = "test4/test5";
+       can_mkdir($_) for ('test4', $dir2);
+       writefile("$dir2/test1.mdwn", $config{srcdir},readfile("t/test1.mdwn"));
+       IkiWiki::rcs_add("$dir2/test1.mdwn");
+       IkiWiki::rcs_commit(
+               file => "$dir2/test1.mdwn",
+               message => $message,
+               token => "omo",
+       );
+       is_newly_added("$dir2/test1.mdwn");
+       is_in_keyword_substitution_mode("$dir2/test1.mdwn", undef);
+       @changes = IkiWiki::rcs_recentchanges(3);
+       is_total_number_of_changes(\@changes, 2);
+       is_most_recent_change(\@changes, "$dir2/test1", $message);
+
+       $message = "add a binary file in an un-added dir, and commit_staged";
+       my $dir3 = "test6";
+       my $file = "$dir3/test7.ico";
+       can_mkdir($dir3);
+       my $bindata_in = readfile("doc/favicon.ico", 1);
+       my $bindata_out = sub { readfile($config{srcdir} . "/$file", 1) };
+       writefile($file, $config{srcdir}, $bindata_in, 1);
+       is(&$bindata_out(), $bindata_in, q{binary files match before commit});
+       IkiWiki::rcs_add($file);
+       IkiWiki::rcs_commit_staged(message => $message);
+       is_newly_added($file);
+       is_in_keyword_substitution_mode($file, q{-kb});
+       is(&$bindata_out(), $bindata_in, q{binary files match after commit});
+       @changes = IkiWiki::rcs_recentchanges(3);
+       is_total_number_of_changes(\@changes, 3);
+       is_most_recent_change(\@changes, $file, $message);
+       ok(
+               unlink($config{srcdir} . "/$file"),
+               q{can remove file in order to re-fetch it from repo},
+       );
+       ok(! -e $config{srcdir} . "/$file", q{really removed file});
+       IkiWiki::rcs_update();
+       is(&$bindata_out(), $bindata_in, q{binary files match after re-fetch});
+
+       $message = "add a UTF-8 and a binary file in different dirs";
+       my $file1 = "test8/test9.mdwn";
+       my $file2 = "test10/test11.ico";
+       can_mkdir(qw(test8 test10));
+       writefile($file1, $config{srcdir}, readfile('t/test2.mdwn'));
+       writefile($file2, $config{srcdir}, $bindata_in, 1);
+       IkiWiki::rcs_add($_) for ($file1, $file2);
+       IkiWiki::rcs_commit_staged(message => $message);
+       is_newly_added($_) for ($file1, $file2);
+       is_in_keyword_substitution_mode($file1, undef);
+       is_in_keyword_substitution_mode($file2, '-kb');
+       @changes = IkiWiki::rcs_recentchanges(3);
+       is_total_number_of_changes(\@changes, 3);
+       @changes = IkiWiki::rcs_recentchanges(4);
+       is_total_number_of_changes(\@changes, 4);
+       # XXX test for both files in the commit, and no other files
+       is_most_recent_change(\@changes, $file2, $message);
+
+       # prevent web edits from attempting to create .../CVS/foo.mdwn
+       # on case-insensitive filesystems, also prevent .../cvs/foo.mdwn
+       # unless your "CVS" is something else and we've made it configurable
+
+       # can it assume we're under CVS control? or must it check?
+
+       # extract method: filetype-guessing
+       # add a binary file, remove it, add a text file by same name, no -kb?
+       # add a text file, remove it, add a binary file by same name, -kb?
+}
+
+sub test_rcs_remove {
+       # can it assume we're under CVS control? or must it check?
+       # remove a top-level file
+       # - rcs_commit
+       # - inspect recentchanges: one new change, file removed
+       # remove two files (in different dirs)
+       # - rcs_commit_staged
+       # - inspect recentchanges: one new change, both files removed
+}
+
+sub test_rcs_rename {
+       # can it assume we're under CVS control? or must it check?
+       # rename a file in the same dir
+       # - rcs_commit_staged
+       # - inspect recentchanges: one new change, one file removed, one added
+       # rename a file into a different dir
+       # - rcs_commit_staged
+       # - inspect recentchanges: one new change, one file removed, one added
+       # rename a file into a not-yet-existing dir
+       # - rcs_commit_staged
+       # - inspect recentchanges: one new change, one file removed, one added
+       # is it safe to use "mv"? what if $dest is somehow outside the wiki?
+}
+
+sub test_rcs_recentchanges {
+       my $message = "Add a page via CVS directly";
+       writefile('test2.mdwn', $config{srcdir}, readfile("t/test2.mdwn"));
+       system "cd $config{srcdir}"
+               . " && cvs add test2.mdwn >/dev/null 2>&1";
+       system "cd $config{srcdir}"
+               . " && cvs commit -m \"$message\" test2.mdwn >/dev/null";
+
+       my @changes = IkiWiki::rcs_recentchanges(3);
+       is(
+               $#changes,
+               0,
+               q{total commits: 1},
+       );
+       is(
+               $changes[0]{message}[0]{"line"},
+               $message,
+               q{most recent commit's first message line matches},
+       );
+       is(
+               $changes[0]{pages}[0]{"page"},
+               "test2",
+               q{most recent commit's first pagename matches},
+       );
+
+       # CVS commits run ikiwiki once for every committed file (!)
+       # - commit_prep alone should fix this
+       # CVS multi-dir commits show only the first dir in recentchanges
+       # - commit_prep might also fix this?
+       # CVS post-commit hook is amped off to avoid locking against itself
+       # - commit_prep probably doesn't fix this... but maybe?
+       # can it assume we're under CVS control? or must it check?
+       # don't worry whether we're called with a number (we always are)
+       # other rcs tests already inspect much of the returned structure
+       # CVS commits say "cvs" and get the right committer
+       # web commits say "web" and get the right committer
+       # - and don't start with "web commit {by,from} "
+       # "nickname" -- can we ever meaningfully set this?
+
+       # prefer log_accum, then cvsps, else die
+       # run the high-level recentchanges tests 2x (once for each method)
+       # - including in other test subs that check recentchanges?
+}
+
+sub test_rcs_diff {
+       # can it assume we're under CVS control? or must it check?
+       # in list context, return all lines (with \n), up to $maxlines if set
+       # in scalar context, return the whole diff, up to $maxlines if set
+}
+
+sub test_rcs_getctime {
+       # can it assume we're under CVS control? or must it check?
+       # given a file, find its creation time, else return 0
+       # first implement in the obvious way
+       # then cache
+}
+
+sub test_rcs_getmtime {
+       # can it assume we're under CVS control? or must it check?
+       # given a file, find its modification time, else return 0
+       # first implement in the obvious way
+       # then cache
+}
+
+sub test_rcs_receive {
+       pass(q{rcs_receive doesn't make sense for CVS});
+}
+
+sub test_rcs_preprevert {
+       # can it assume we're under CVS control? or must it check?
+       # given a patchset number, return structure describing what'd happen:
+       # - see doc/plugins/write.mdwn:rcs_receive()
+       # don't forget about attachments
+}
+
+sub test_rcs_revert {
+       # can it assume we're under CVS control? or must it check?
+       # given a patchset number, stage the revert for rcs_commit_staged()
+       # if commit succeeds, return undef
+       # else, warn and return error message (really? or just non-undef?)
+}
+
+sub main {
+       my $test_methods = defined $ENV{TEST_METHOD} 
+                        ? $ENV{TEST_METHOD}
+                        : $default_test_methods;
+
+       _startup($test_methods eq $default_test_methods);
+       _runtests(_get_matching_test_subs($test_methods));
+       _shutdown($test_methods eq $default_test_methods);
+}
+
+main();
+
+
+# INTERNAL SUPPORT ROUTINES
+
+sub _plan_for_test_more {
+       my $can_plan = shift;
+
+       foreach my $program (@required_programs) {
+               my $program_path = `which $program`;
+               chomp $program_path;
+               return plan(skip_all => "$program not available")
+                       unless -x $program_path;
        }
-       foreach my $module ('File::ReadBackwards', 'File::MimeInfo') {
+
+       foreach my $module (@required_modules) {
                eval qq{use $module};
-               if ($@) {
-                       eval qq{
-                               use Test::More skip_all => "$module not available"
-                       }
-               }
+               return plan(skip_all => "$module not available")
+                       if $@;
        }
+
+       return plan(skip_all => "can't create $dir: $!")
+               unless mkdir($dir);
+       return plan(skip_all => "can't remove $dir: $!")
+               unless rmdir($dir);
+
+       return unless $can_plan;
+
+       return plan(tests => $total_tests);
+}
+
+# http://stackoverflow.com/questions/607282/whats-the-best-way-to-discover-all-subroutines-a-perl-module-has
+
+use B qw/svref_2object/;
+
+sub in_package {
+       my ($coderef, $package) = @_;
+       my $cv = svref_2object($coderef);
+       return if not $cv->isa('B::CV') or $cv->GV->isa('B::SPECIAL');
+       return $cv->GV->STASH->NAME eq $package;
+}
+
+sub list_module {
+       my $module = shift;
+       no strict 'refs';
+       return grep {
+               defined &{"$module\::$_"} and in_package(\&{*$_}, $module)
+       } keys %{"$module\::"};
 }
-use Test::More tests => 12;
-
-BEGIN { use_ok("IkiWiki"); }
-
-%config=IkiWiki::defaultconfig();
-$config{rcs} = "cvs";
-$config{srcdir} = "$dir/src";
-$config{cvsrepo} = "$dir/repo";
-$config{cvspath} = "ikiwiki";
-IkiWiki::loadplugins();
-IkiWiki::checkconfig();
-
-my $cvsrepo = "$dir/repo";
-
-system "cvs -d $cvsrepo init >/dev/null";
-system "mkdir $dir/ikiwiki >/dev/null";
-system "cd $dir/ikiwiki && cvs -d $cvsrepo import -m import ikiwiki VENDOR RELEASE >/dev/null";
-system "rm -rf $dir/ikiwiki >/dev/null";
-system "cvs -d $cvsrepo co -d $config{srcdir} ikiwiki >/dev/null";
-
-# Web commit
-my $test1 = readfile("t/test1.mdwn");
-writefile('test1.mdwn', $config{srcdir}, $test1);
-IkiWiki::rcs_add("test1.mdwn");
-IkiWiki::rcs_commit(
-       files => "test1.mdwn",
-       message => "Added the first page",
-       token => "moo"
-);
 
-my @changes;
-@changes = IkiWiki::rcs_recentchanges(3);
-
-is($#changes, 0);
-is($changes[0]{message}[0]{"line"}, "Added the first page");
-is($changes[0]{pages}[0]{"page"}, "test1");
-
-# Manual commit
-my $message = "Added the second page";
-
-my $test2 = readfile("t/test2.mdwn");
-writefile('test2.mdwn', $config{srcdir}, $test2);
-system "cd $config{srcdir} && cvs add test2.mdwn >/dev/null 2>&1";
-system "cd $config{srcdir} && cvs commit -m \"$message\" test2.mdwn >/dev/null";
-
-@changes = IkiWiki::rcs_recentchanges(3);
-is($#changes, 1);
-is($changes[0]{message}[0]{"line"}, $message);
-is($changes[0]{pages}[0]{"page"}, "test2");
-is($changes[1]{pages}[0]{"page"}, "test1");
-
-# extra slashes in the path shouldn't break things
-$config{cvspath} = "/ikiwiki//";
-IkiWiki::checkconfig();
-@changes = IkiWiki::rcs_recentchanges(3);
-is($#changes, 1);
-is($changes[0]{message}[0]{"line"}, $message);
-is($changes[0]{pages}[0]{"page"}, "test2");
-is($changes[1]{pages}[0]{"page"}, "test1");
-
-system "rm -rf $dir";
+
+# support for xUnit-style testing, a la Test::Class
+
+sub _startup {
+       my $can_plan = shift;
+       _plan_for_test_more($can_plan);
+       _generate_test_config();
+}
+
+sub _shutdown {
+       my $had_plan = shift;
+       done_testing() unless $had_plan;
+}
+
+sub _setup {
+       _generate_test_repo();
+}
+
+sub _teardown {
+       system "rm -rf $dir";
+}
+
+sub _runtests {
+       my @coderefs = (@_);
+       for (@coderefs) {
+               _setup();
+               $_->();
+               _teardown();
+       }
+}
+
+sub _get_matching_test_subs {
+       my $re = shift;
+       no strict 'refs';
+       return map { \&{*$_} } grep { /$re/ } sort(list_module('main'));
+}
+
+sub _generate_test_config {
+       %config = IkiWiki::defaultconfig();
+       $config{rcs} = "cvs";
+       $config{srcdir} = "$dir/src";
+       $config{cvsrepo} = "$dir/repo";
+       $config{cvspath} = "ikiwiki";
+       IkiWiki::loadplugins();
+       IkiWiki::checkconfig();
+}
+
+sub _generate_test_repo {
+       die "can't create $dir: $!"
+               unless mkdir($dir);
+
+       my $cvs = "cvs -d $config{cvsrepo}";
+       my $dn = ">/dev/null";
+       system "$cvs init $dn";
+       system "mkdir $dir/$config{cvspath} $dn";
+       system "cd $dir/$config{cvspath} && "
+               . "$cvs import -m import $config{cvspath} VENDOR RELEASE $dn";
+       system "rm -rf $dir/$config{cvspath} $dn";
+       system "$cvs co -d $config{srcdir} $config{cvspath} $dn";
+}
+
+sub can_mkdir {
+       my $dir = shift;
+       ok(
+               mkdir($config{srcdir} . "/$dir"),
+               qq{can mkdir $dir},
+       );
+}
+
+sub is_newly_added {
+       my $file = shift;
+       is(
+               IkiWiki::Plugin::cvs::cvs_info("Repository revision", $file),
+               '1.1',
+               qq{$file is newly added to CVS},
+       );
+}
+
+sub is_in_keyword_substitution_mode {
+       my ($file, $mode) = @_;
+       $mode = '(none)' unless defined $mode;
+       is(
+               IkiWiki::Plugin::cvs::cvs_info("Sticky Options", $file),
+               $mode,
+               qq{$file is in CVS with expected keyword substitution mode},
+       );
+}
+
+sub is_total_number_of_changes {
+       my ($changes, $expected_total) = @_;
+       is(
+               $#{$changes},
+               $expected_total - 1,
+               qq{total commits == $expected_total},
+       );
+}
+
+sub is_most_recent_change {
+       my ($changes, $page, $message) = @_;
+       is(
+               $changes->[0]{message}[0]{"line"},
+               $message,
+               q{most recent commit's first message line matches},
+       );
+       is(
+               $changes->[0]{pages}[0]{"page"},
+               $page,
+               q{most recent commit's first pagename matches},
+       );
+}