Ignore:
Timestamp:
2018-01-16T22:39:16+13:00 (6 years ago)
Author:
davidb
Message:

Rekindle ability to process a json-filelist.txt using Spark

File:
1 edited

Legend:

Unmodified
Added
Removed
  • other-projects/hathitrust/wcsa/extracted-features-solr/trunk/solr-ingest/src/main/java/org/hathitrust/extractedfeatures/ProcessForSolrIngest.java

    r31597 r32106  
    142142   
    143143    /*
    144     public void execPerVolume()
     144    public void execPerVolumeJSONFileList()
    145145    {   
    146146        String spark_app_name = generateSparkAppName("Per Volume");     
     
    168168        boolean strict_file_io = Boolean.getBoolean("wcsa-ef-ingest.strict-file-io");
    169169       
    170         PerVolumeJSON per_vol_json = new PerVolumeJSON(_input_dir,_whitelist_filename,
    171                                                        _solr_url,_output_dir,_verbosity, progress_accum,per_vol,
    172                                                        icu_tokenize,strict_file_io);
     170        ArrayList<String> solr_endpoints = extrapolateSolrEndpoints(_solr_collection);
     171       
     172        //PerVolumeJSON per_vol_json = new PerVolumeJSON(_input_dir,_whitelist_filename,
     173        //                                             _solr_url,_output_dir,_verbosity, progress_accum,per_vol,
     174        //                                             icu_tokenize,strict_file_io);
     175        PerVolumeJSON per_vol_json = new PerVolumeJSON(_input_dir,_whitelist_filename, _langmap_directory,
     176                                                        solr_endpoints,_output_dir,_verbosity,
     177                                                        icu_tokenize,strict_file_io);
    173178
    174179        //json_list_data_rp.foreach(per_vol_json);
Note: See TracChangeset for help on using the changeset viewer.